Source: https://github.com/susumuota/arxiv-reddit-summary
Maintained by @ota.bsky.social
このレポートでは、小型モデルは本質的にロバストな推論を欠くという一般的なコンセンサスに挑戦し、我々が開発したSSP(Spectrum-to-Signal Principle)により開発された1.5Bパラメータの高密度モデル、VibeThinker-1.5Bを紹介する。これは、DeepSeek R1 (671B)やKimi k2 (>1T)のようなモデルに見られるよう...
このレポートでは、小型モデルは本質的にロバストな推論を欠くという一般的なコンセンサスに挑戦し、我々が開発したSSP(Spectrum-to-Signal Principle)により開発された1.5Bパラメータの高密度モデル、VibeThinker-1.5Bを紹介する。これは、DeepSeek R1 (671B)やKimi k2 (>1T)のようなモデルに見られるよう...
拡散言語モデルは、高速な並列生成が期待できる一方、自己回帰(AR)モデルは、その因果構造が言語モデリングと自然に整合するため、一般的に品質が優れている。高いスループット、高いGPU使用率、そしてARレベルの品質との相乗効果を達成できるか?既存の方法では、この2つの側面のバランスを効果的にとるこ...
拡散言語モデルは、高速な並列生成が期待できる一方、自己回帰(AR)モデルは、その因果構造が言語モデリングと自然に整合するため、一般的に品質が優れている。高いスループット、高いGPU使用率、そしてARレベルの品質との相乗効果を達成できるか?既存の方法では、この2つの側面のバランスを効果的にとるこ...
大規模言語モデル(LLM)は、様々な領域で顕著な能力を発揮しているが、その学習には、膨大な計算能力と学習手順の慎重なオーケストレーションが必要であり、依然としてリソースと時間がかかる。モデルスーピング(同じアーキテクチャの複数のモデルの重みを平均化する手法)は、高価な再トレーニングを行うこ...
大規模言語モデル(LLM)は、様々な領域で顕著な能力を発揮しているが、その学習には、膨大な計算能力と学習手順の慎重なオーケストレーションが必要であり、依然としてリソースと時間がかかる。モデルスーピング(同じアーキテクチャの複数のモデルの重みを平均化する手法)は、高価な再トレーニングを行うこ...
我々は、敵対的な詩が大規模言語モデル(LLM)のための普遍的な1ターンの脱獄技術として機能する証拠を提示する。25のフロンティア独自モデルおよびオープンウエイトモデルにおいて、詩的プロンプトのキュレーションは高い攻撃成功率(ASR)を示し、90%を超えるプロバイダーもあった。プロンプトをMLCommons...
我々は、敵対的な詩が大規模言語モデル(LLM)のための普遍的な1ターンの脱獄技術として機能する証拠を提示する。25のフロンティア独自モデルおよびオープンウエイトモデルにおいて、詩的プロンプトのキュレーションは高い攻撃成功率(ASR)を示し、90%を超えるプロバイダーもあった。プロンプトをMLCommons...
大規模言語モデル(LLM)の能力が高まるにつれて、LLMは創発的行動として自己認識を発達させるのだろうか?もしそうなら、私たちはそれを測ることができるのだろうか?戦略的差別化を通じて自己認識を測定するためのゲーム理論的フレームワークであるAI自己認識指数(AISAI)を紹介する。平均の2/3を当てる」ゲ...
大規模言語モデル(LLM)の能力が高まるにつれて、LLMは創発的行動として自己認識を発達させるのだろうか?もしそうなら、私たちはそれを測ることができるのだろうか?戦略的差別化を通じて自己認識を測定するためのゲーム理論的フレームワークであるAI自己認識指数(AISAI)を紹介する。平均の2/3を当てる」ゲ...