#InstructLab
📢 Hi all! The #InstructLab Community is evolving to better align with technical changes, with the project components being separated and relocated. Here is the full announcement: blog.instructlab.ai/2025/09/inst...

Thank you for all your participation and contributions in the past year! 🐶
InstructLab Community Evolution – InstructLab
blog.instructlab.ai
September 8, 2025 at 10:31 AM
Discover how to make LLM fine-tuning accessible with InstructLab with this Devoxx UK talk by @cedricclyburn.bsky.social and Legare Kerrison. Learn to refine models for specific use cases on consumer hardware without needing data science expertise.

Watch here - www.devoxx.co.uk//talk?id=8092
June 26, 2025 at 2:02 PM
How to Make LLM fine-tuning accessible with InstructLab Even as AI technologies rapidly evolve, the foundational challenge remains: how can we make these systems understand and work with our specif...

#AI #InstructLab #Large #Language #Models #Red #Hat #AI #customization #Cedric #Clyburn […]
Original post on franksworld.com
www.franksworld.com
June 20, 2025 at 7:10 PM
InstructLab Research
The AI Innovation Team at Red Hat that builds InstructLab.
bit.ly
June 16, 2025 at 1:39 PM
Join us at AI Plumbers Conference on June 15 in Berlin!

From Red Hat, Marta and Karsten will present how to go from a notebook sketch to a production-ready LLM app using #opensource tools like Podman AI Lab and #InstructLab

Details and registration: lu.ma/vqx423ct
June 10, 2025 at 1:49 PM
Define your AI’s scope with InstructLab
Custom models work better when trained on relevant data.
• `ilab init` your project
• Add taxonomy
• Generate synthetic data
• Fine-tune model
Start with your domain, not someone else’s.
May 16, 2025 at 11:04 PM
Fine-tune LLMs with your own data using Apache Answer and InstructLab—no ML team or big infra needed. A practical AI guide for mid-sized teams. #finetuningllms
Fine-Tuning Models with Your Own Data, Effortlessly
hackernoon.com
May 15, 2025 at 3:28 AM
📅 Starting next week: Deep dive into Kubernetes resource management https:// ku.bz/6Nw8j3m6y From Your Local Machine to Kubernetes: Building AI Apps with Quarkus, InstructLab, and Podman AI Lab https:// ku.bz/lspl1875L

| Details | Interest | Feed |
Origin
learnk8s.news
May 8, 2025 at 3:38 PM
📅 Starting next week:

Deep dive into Kubernetes resource management https://ku.bz/6Nw8j3m6y

From Your Local Machine to Kubernetes: Building AI Apps with Quarkus, InstructLab, and Podman AI Lab https://ku.bz/lspl1875L
May 8, 2025 at 3:36 PM
Check out the AI track sessions on #RHSummit Community Day! events.experiences.redhat.com/widget/redha...

We have topics ranging from #Docling to #TrustyAI, inferencing to features stores, topped with your favourite #InstructLab tools & #Granite models. Register & add the sessions to your schedule!
Red Hat Summit 2025
Red Hat Summit is the premier enterprise open source event for IT professionals
events.experiences.redhat.com
April 30, 2025 at 8:56 PM
InstructLab Core v0.22.2
🫵 adds llama-cpp-python v0.3.2 meaning we now support Granite 3.0 GGUF models
🫵 adds a new config class, so please run ilab config init for proper functionality
bit.ly/4h57I70
#instructlab #genai #rhelai
InstructLab Core v0.22.2 Release
announce
bit.ly
April 30, 2025 at 5:08 AM
We'll be at #fossnorth in #Gothenburg next week, April 14-15! Learn about #InstructLab in the hands-on workshop on day 1 with @cybette.bsky.social

foss-north.se/2025/schedul...
foss-north 2025
foss-north.se
April 11, 2025 at 8:32 PM
AI_dev Europe 2024からIBMとRed HatによるInstructLabのセッションを紹介 | Think IT(シンクイット)

https://www.wacoca.com/news/2488745/

AI_dev Europe 2024から、IBMとRed Hatが一緒にプレゼンテーションを行ったInstructLabを解説するセッションを紹介する。このカンファレンスでは生成型AIのモデルがどれくらいオープンなのかを [...]
AI_dev Europe 2024からIBMとRed HatによるInstructLabのセッションを紹介 | Think IT(シンクイット) - WACOCA NEWS
AI_dev Europe 2024から、IBMとRed Hatが一緒にプレゼンテーションを行ったInstructLabを解説するセッションを紹介する。このカンファレンスでは生成型AIのモデルがどれくらいオープンなのかを評価するModel Openness Framework(MOF)の発表が初日のキーノートで行われ、他にもオープンソースなAIモデルとクローズドなモデルを解説するセッションなども行われているように、The Linux FoundationとしてはオープンソースによるAI開発が業界にとっても社会にとっても最良の選択だと訴求したいという意図を感じる内容となっている。
www.wacoca.com
April 1, 2025 at 7:58 AM
AI_dev Europe 2024からIBMとRed HatによるInstructLabのセッションを紹介 | Think IT(シンクイット)

https://www.walknews.com/848472/

AI_dev Europe 2024から、IBMとRed Hatが一緒にプレゼンテーションを行ったInstructLabを解説するセッションを紹介する。このカンファレンスでは生成型AIのモデルがどれくらいオープンなのかを評価するModel Openness …
AI_dev Europe 2024からIBMとRed HatによるInstructLabのセッションを紹介 | Think IT(シンクイット)
AI_dev Europe 2024から、IBMとRed Hatが一緒にプレゼンテーションを行ったInstructLabを解説するセッションを紹介する。このカンファレンスでは生成型AIのモデルがどれくらいオープンなのかを評価するModel Openness Framework(MOF)の発表が初日のキーノートで行われ、他にもオープンソースなAIモデルとクローズドなモデルを解説するセッションなども行われているように、The Linux FoundationとしてはオープンソースによるAI開発が業界にとっても社会にとっても最良の選択だと訴求したいという意図を感じる内容となっている。 何よりもオープンソースで最もビジネスとして成功しているRed Hatが、IBMの協力を得て土台となる基礎のモデルであるGraniteを公開したことで、Red HatそしてIBMはオープンソースによる生成型AI開発をリードしたい、賛同者を増やしたいことは明確だろう。 このセッションは2024年5月にデンバーで開催されたRed Hat Summitでのセッションをおさらいするような内容となっているが、その後のフィードバックを得て、より具体的な解説となっていることに注目したい。Red Hat Summitに関しては以下の記事一覧を参照して欲しい。このカンファレンスでRed Hatは、IBMの持つリソースをフル活用してオープンソースによる生成型AIの未来に賭けている姿勢が見て取れる。 ●参考:Red Hat Summit 2024レポート 記事一覧 今回のセッションはIBMのMark Sturdevant氏とRed HatのCarol Chen氏によって行われたが、特に分担を分けずに交互にInstructLabを解説しているのが興味深いところだろう。実際の開発でも、IBMとRed Hatが役割を分担せずに共同作業を行っている印象を受ける。ちなみにSturdevant氏はIBM Researchでオープンソースに関わって約10年の経験を持つベテランで、InstructLabではCLIのメンテナーでもあると紹介された。一方のChen氏は、かつてはエキスパートシステムに関わっていたことはあるが、生成型AIについては経験が浅く、このカンファレンスの2か月前にInstructLabの仕事に異動してきたと説明し、学ぶことが一杯あると話していた。 セッションを行うChen氏(左)とSturdevant氏(右) セッションのタイトルは「Applying Open Source Methods to Building and Training Large Language Models」、オープンソースによるソフトウェア開発の仕組みを大規模言語モデルに適用するInstructLabの背景と効果を解説する内容となっている。 ●動画:Applying Open Source Methods to Building and Training Large Language Models まずはLLMが発表されてから無数のクローン化されたモデルが市場に溢れていることを説明。ここではStar Warsのエピソード2のタイトル、「Attack of the Clones」をもじって「Attack of LLM Clones」という状態にあるとジョークを交えて解説を行った。 つまり各ベンダーや研究組織がゼロからベースとなるLLMの基礎モデルを作るのではなく、Llamaなどのモデルをベースにしてその上からデータを追加することで特定分野の知識を構成する方法論が現在の状態であることを説明した。 Foundation Model-Centric Applicationsというスライドでモデルの作られ方を説明 このスライドでは公開されたモデルに業界や企業に特化したデータを追加することで必要に応じたモデルを生成することが一般的であると説明している。ただしその結果として、オープンソースコミュニティで実現しているコミュニティがモデルの改善に協力するということができなくなっていることを説明したのが次のスライドだ。 成功しているOSSの特徴がLLMの開発に活かせない現状 ここではコミュニティによって統率された定期的なリリースや公開されたAPI、未来のロードマップの公開、コミュニティからの貢献、誰もが参加できるといったOSSの特徴がLLMの開発においては実現できていないことを、例を挙げて説明している。結果として、Llamaに対して貢献しようとしても大量のクローン化され少しずつ異なるLlamaモデルが発生しているため、困難であると語った。 Llamaの派生モデルが大量に発生して乱立している状態 そしてRed Hatの経験則から言えば、オープンソースのコミュニティによる開発こそがあるべき姿であることを説明。 実験~貢献~トレーニングとマージ~定期的なリリースというサイクルを回すことがあるべき姿 ここでは実験~貢献~トレーニングと、マージ~定期的なリリースというサイクルをクローズドな方法ではなくコミュニティが参加することで実行していくことが必要だと説明した。 そのサイクルを回すための方法がLarge-scale Alignment for ChatBotメソドロジー LLMに対する更新をそのサイクルを回すための方法がInstructLabで採用され、名称の一部にもなっているLAB(Large-scale Alignment for ChatBot)メソドロジーであると紹介。ここでは分類学に従ったデータの収集、大規模なデータ合成、フェーズごとに分かれたチューニングの3つのステップが解説されている。ここで注目したいのは、ナレッジとスキルという2つの分類によるチューニングという部分だ。 より詳しい説明を次のスライドでも行っているが、ここでもナレッジとスキルという分類でデータを収集することが記載されている。 前のスライドをより詳細に解説。ここでもナレッジとスキルが出てくる そしてそのナレッジとスキルを使ってモデルを更新することがInstructLabの要点であると説明。 ナレッジとスキルを使ってモデルを更新するのがInstructLabの要点 それに関しては例を使って説明している。 ナレッジとスキルのサンプル ここでは「チキンパルメザンを作るための簡単なレシピを作れ」という例が一番わかりやすいだろう。レシピを作るためにはナレッジとして「チキンパルメザンとは何か?」「必要な材料や調味料は何か?」「簡単なレシピとは何か?」が必要である。一方スキルとしては「結果をレシピとして使えるためにどんなスタイルで書き出すべきか?」を持っておく必要があり、その二つを組み合わせた結果としてレシピが生成されることになる。普通に料理ができる人間が持っている技能をナレッジとスキルという2つに分割してシステムに教え込もうというのが、分類学的なアプローチということになるのだろう。 スキルの入力例を紹介 ここからはどういうデータをどのような形式で入力するのかを、CLIの画面を見せながら説明した。ここでは犬の運動量についてアフガンハウンド、ラブラドール、コッカースパニエル、プードルの例を出して、その中から最も運動量の多い種別を選べという質問に答えることでスキルを追加できると説明している。 ナレッジの入力例 ここでは2024年のオスカー賞の結果について質問を行うことで事実(ナレッジ)を教えるという内容になっている。どちらの入力にはその情報のソースとなるリンクを追加できるようになっている。この質問と回答はGitのプルリクエストの形で承認待ちとなり、承認を得ないとモデルには反映されない。 InstructLabのワークフロー そして追加されたナレッジとスキルはマークダウン形式のデータとしてCLIを通じてプルリクエストの形でモデルに対するファインチューニングとして使われ、結果としてクローンではなく新しいバージョンのモデルとして更新されると解説した。 InstructLabのCLIの流れ そしてInstructLabで使われるCLIのワークフローを説明した。「ilab init」「ilab download」「ilab serve」「ilab chat」などの具体的なコマンドが列挙され、すでに稼働していることが示されている。実際にRed Hat Summitの会場ではInstructLab専用のハンズオンスペースが設けられており、参加者が実際にプルリクエストを行うまでを体験することが可能になっていた。
www.walknews.com
April 1, 2025 at 2:00 AM
Discover how to make LLM fine-tuning accessible with InstructLab. Join Legare Kerrison and @cedricclyburn.bsky.social for a live demo and learn how to refine models for specific use cases at any skill level.

For full details visit buff.ly/NPZg1hh
March 29, 2025 at 9:00 AM
Learn about Synthetic data: a secret ingredient for better language models - and the approach #InstructLab takes, with @cedricclyburn.bsky.social and @cybette.bsky.social

www.redhat.com/en/blog/synt...
Synthetic data: A secret ingredient for better language models
It's increasingly clear that the quality of a large language model (LLM) is hugely dependent on the quality of the data used during training.
www.redhat.com
March 28, 2025 at 2:05 PM
Check out why #RedHat thinks AI's future is Small Language Models, and the role #InstructLab plays - in this article by @lorainelawson.bsky.social at @thenewstack.io: thenewstack.io/why-red-hat-...
Why Red Hat Thinks AI’s Future Is Small Language Models
Developers long ago realized monolithic applications aren’t ideal — Red Hat contends developers need to apply that learning to GenAI.
thenewstack.io
March 19, 2025 at 10:27 PM
** #InstructLab Core v0.24.z and v0.23.z minor releases **

A couple of minor releases for Core:
- fix batch sizing for SDG (0.24.2 & 0.23.3)
- fix a missing python package dependency, and error-handling for "ilab taxonomy diff" (0.24.3 & 0.23.4)

Changelogs: github.com/instructlab/...
Releases · instructlab/instructlab
InstructLab Core package. Use this to chat with a model and execute the InstructLab workflow to train a model using custom taxonomy data. - instructlab/instructlab
github.com
March 13, 2025 at 9:41 PM
Join IBM Cloud Paris meetup for a "Deep dive InstructLab" with M'hamed Benabid, on April 9, 2025. Details and RSVP: www.meetup.com/ibm-cloud-pa...

#watsonx #instructlab
March 12, 2025 at 9:54 PM