2月9日、世界最大のAIオープンソースコミュニティであるHuggingFaceのプロジェクトページに、Transformersに統合されるQwen3.5に関する新たなPR(コードマージのためのプルリクエスト)が掲載されました。業界関係者は、アリババの次世代基盤モデルであるQwen3.5のリリースが間近に迫っていると推測し、世界中のAIオープンソースコミュニティで白熱した議論を巻き起こしました。 一部のコメントからは、中国の大規模モデルが牽引する「クレイジーな2月」の始まりが近づいているのではないかとの見方も出ていました。関連情報によると、Qwen3.5は全く新しいハイブリッドアテンションメカニズムを採用しており、視覚理解をネイティブに備えたVLMクラスのモデルになる可能性が高いことが明らかになりました。 開発者によるさらなる分析の結果、Qwen3.5は少なくとも20億のパラメータを持つ高密度モデルと、350億から30億のパラメータを持つMixture-of-Experts(MoE)モデルをオープンソース化する可能性があることが明らかになりました。