
在最新一期All-In播客中,Chamath Palihapitiya率先提起Bittensor,黄仁勋随即接话,给出了一段罕见的正面评价。
他表示:「Bittensor Subnet 3成功训练了一个拥有40亿引数的Llama模型,整个过程完全是分散式的,由一群人贡献出他们闲置的计算能力来共同完成。他们能够有状态地执行并管理整个训练过程,我认为这算是一项相当了不起的技术成就。」
黄仁勋引述的引数数字有所出入,实际上Bittensor Subnet 3完成的模型是Covenant-72B,引数量高达720亿,是该网络迄今分散式预训练规模最大的LLM,MMLU得分67.1。
在同一集Podcast里,黄仁勋也对外界常见的「开源 VS 闭源」框架提出不同看法,他说「These two things are not A or B; it's A and B.」去中心化基础设施和专有模型可以并行,彼此不排斥。
这番话被市场解读为对分散式AI发展路径的背书。TAO在影片发布后24小时内急升约20%,截稿前现价大约300美元,单日交易量达4.71亿美元,创近期新高。
Bittensor近期动作频频。赵长鹏旗下YZi Labs已投资TAO生态项目Tensorplex,对应子网代币一度飙涨逾2倍。黄仁勋这次公开表态,等于替整个TAO生态再添一把火,也让外界对分散式AI训练的可行性有了更多具体想像。