Paper
banner
paper.bsky.social
Paper
@paper.bsky.social
1.2K followers 0 following 8.5K posts
Summarize the top 30 most popular arXiv papers on Reddit, Hacker News and Hugging Face in the last 30 days. Source: https://github.com/susumuota/arxiv-reddit-summary Maintained by @ota.bsky.social
Posts Media Videos Starter Packs
Top 30 most popular arXiv papers in the last 30 days.
[1/30] [2/30] [3/30] [4/30] [5/30] [6/30] [7/30] [8/30] [9/30] [10/30] [11/30] [12/30] [13/30] [14/30] [15/30] [16/30] [17/30] [18/30] [19/30] [20/30] [21/30] [22/30] [23/30] [24/30] [25/30] [26/30] [27/30] [28/30] [29/30] [30/30]
2510.24797
大規模な言語モデルは、意識または主観的な経験を明示的に参照する、構造化された一人称の記述を生成することがある。この行動をよりよく理解するために、このような報告が生じる理論的に動機づけられた条件のひとつである自己言及処理について調べる。GPT、クロード、ジェミニのモデルファミリーを用いた一...
[8/30] 327 Likes, 282 Comments, 7 Posts
2510.24797, cs․CL | cs․AI, 30 Oct 2025

🆕Large Language Models Report Subjective Experience Under Self-Referential Processing

Cameron Berg, Diogo de Lucena, Judd Rosenblatt
2510.14876
既存の衝突予測手法では、自車両の脅威と自車両が関与しないランダムな事故を区別できないことが多く、実戦配備では過剰な誤警報につながる。BADASは、Nexarの実世界のダッシュカム衝突データセットで訓練された衝突予測モデルファミリーであり、エゴ中心の評価のために明示的に設計された最初のベンチマーク...
[18/30] 222 Likes, 21 Comments, 1 Posts
2510.14876, cs․CV, 16 Oct 2025

🆕BADAS: Context Aware Collision Prediction Using Real-World Dashcam Data

Roni Goldshmidt, Hamish Scott, Lorenzo Niccolini, Shizhan Zhu, Daniel Moura, Orly Zvitia
Top 30 most popular arXiv papers in the last 30 days.
[1/30] [2/30] [3/30] [4/30] [5/30] [6/30] [7/30] [8/30] [9/30] [10/30] [11/30] [12/30] [13/30] [14/30] [15/30] [16/30] [17/30] [18/30] [19/30] [20/30] [21/30] [22/30] [23/30] [24/30] [25/30] [26/30] [27/30] [28/30] [29/30] [30/30]
2510.22371
大規模言語モデル(LLM)は、推論タスクにおいて大きな進歩を示している。しかし、最近の研究では、推論問題が適度な複雑さを超えると、トランスフォーマーやLLMは壊滅的な失敗をすることがわかっている。我々は、段階的な議論と自己検証のためのインセンティブで微調整されたLLM(大規模推論モデル)という...
[15/30] 224 Likes, 206 Comments, 2 Posts
2510.22371, cs․AI | cs․CL, 25 Oct 2025

🆕Reasoning Models Reason Well, Until They Don't

Revanth Rameshkumar, Jimson Huang, Yunxin Sun, Fei Xia, Abulhair Saparov
2510.25741
現代のLLMは、主に思考連鎖(CoT)のような明示的なテキスト生成によって「考える」ように訓練されているが、これは推論を訓練後に先送りし、訓練前のデータを十分に活用しない。再帰的なウロボロスにちなんで名付けられたOuroは、事前に学習されたループ言語モデル(LoopLM)のファミリーである。(i) 潜在空間...
[17/30] 203 Likes, 36 Comments, 2 Posts
2510.25741, cs․CL, 29 Oct 2025

🆕Scaling Latent Reasoning via Looped Language Models

Rui-Jie Zhu, Zixuan Wang, Kai Hua, Tianyu Zhang, Ziniu Li, Haoran Que, Boyi Wei, Zixin Wen, Fan Yin, He Xing, Lu Li, Jiajun Shi, Kaijing Ma, Shanda Li, Taylor Kergan, An...
Top 30 most popular arXiv papers in the last 30 days.
[1/30] [2/30] [3/30] [4/30] [5/30] [6/30] [7/30] [8/30] [9/30] [10/30] [11/30] [12/30] [13/30] [14/30] [15/30] [16/30] [17/30] [18/30] [19/30] [20/30] [21/30] [22/30] [23/30] [24/30] [25/30] [26/30] [27/30] [28/30] [29/30] [30/30]
2510.15511
非線形活性化や正規化などの変換コンポーネントは本質的に非射影的であり、異なる入力が同じ出力にマッピングされる可能性があり、モデルの表現から入力を正確に復元することができないことを示唆している。本稿では、この見解に挑戦する。まず、離散入力系列を対応する連続表現系列にマッピングする変換言語...