千夜阁 > 都市言情 > 你若开挂,金钱自来 > 第462章 离职与围攻
最新站名:千夜阁 最新网址:www.qianyege.com
    一周后。


    辛顿三人回到北美。


    辛顿从谷歌离职。


    谷歌没有异议。


    谷歌已经完全掌握卷积神经网络算法的精髓。


    知道算力和数据才是更重要的关键。


    而且,辛顿已经70岁,精力不如从前。


    在谷歌已经处于半退休状态,其作用更多只是指导。


    而指导并不需要每年600多万美元的薪水。


    苏茨克维的离职掀起了一阵波澜。


    OpenAi公司上下颇有微词。


    很多公司员工私下里腹诽不已。


    他们认为,公司第一代模型刚刚搭建完成,正需要数据喂养和学习训练。


    此时苏茨克维离开,是一种彻头彻尾的背叛。


    公司CEO奥特曼专门和他谈了一次。


    “辞职是和马斯克的评论有关吗?”奥特曼问。


    最近,权力斗争失败的马斯克,公开批评OpenAi背离了初衷。


    “OpenAi创立时是一个开源、非营利性的组织,旨在作为谷歌的制衡力量……”


    “但是现在,奥特曼正在和微软情投意合,它有可能会变成一家由微软控制,以盈利为目的的闭源公司。”


    而当初,苏茨克维离开谷歌,加盟OpenAi的前提条件就是:


    OpenAi应该是一个开源、非营利性的组织。


    “你应该知道,马斯克撤资后,公司现在非常困难,项目接近停摆,必须有外部资金介入,否则公司会倒闭。”奥特曼解释道:


    “微软现在很主动,他们将提供10亿美元供公司发展,他们不谋求公司的控制权和主导权。”


    “他们只要求在公司旗下设立一个盈利性的小机构,仅此而已。”


    “我相信你能理解,要实现AGI的完全成熟,我们需要钱,需要很多钱,没有钱什么都做不了。”


    奥特曼说完,苏茨克维摇头说:“奥特曼先生,我离职和马斯克的言论没有关系。”


    “我承认马斯克找过我,想让我加盟xAI,但是我拒绝了。”


    “那你为什么要离开?”奥特曼不解:


    “只要我们和微软谈妥,就会有大笔资金进入公司,你就可以有更好的硬件条件,继续你的研究。”


    “我们所有人都认为你是一个天才,你最适合掌控语言模型研发。”


    “不,公司有很多人可以主导语言模型研发,我并不重要。”苏茨克维摇头:


    “语言模型最终需要的是算力和数据,你应该明白。”


    “你是准备回谷歌吗?不可否认,他们能够给出更高的薪水,这一点公司确实不能竞争……”奥特曼想到:


    “但是,谷歌不会认同你的“超级对齐”概念。”


    “他们只会希望语言模型不断成长、直至成熟,然后推向市场、占领市场……”


    “他们认为“超级对齐”会阻碍语言模型的发展。”


    “我觉得你们也是一样。”苏茨克维直言不讳。


    奥特曼愣了一下,迅速组织语言,然后解释:“不,我们不一样。”


    “在OpenAi你是首席科学家,而在谷歌你什么都不是,这是本质区别。”


    “你除了能得到更高的薪水之外,其他什么都得不到。”


    “奥特曼先生,我并没有去谷歌,我去的是鹅厂,华夏的一家互联网公司。”苏茨克维说。


    “鹅厂?”奥特曼努力回想,在脑中找到坐标。


    是他们啊。


    “那我没有问题了,祝你好运。”奥特曼眉毛一挑,彻底放下心来。


    他知道鹅厂,是一家华夏的互联网公司。


    他们有庞大的用户群,有很多赚钱的游戏,还有不错的电商平台……


    很快,苏茨克维离开OpenAi,加盟鹅厂的消息传遍了AI圈和硅谷。


    很多人对他的选择表示不理解和质疑。


    “他不是有效利他主义者吗?”


    “鹅厂有什么?有钱,有很多的钱,在那里,苏茨克维先生可以拿到谷歌也给不了的薪水。”


    “鹅厂是想让他们的游戏对话更智能化,吸引更多的用户打开钱包,然后赚更多的钱。”


    “苏茨克维终于还是成为了金钱的俘虏,他对OpenAi的薪水感到不满。”


    “我理解他的“超级对齐”,因为他在OpenAi拿的薪水没有与他的心理要求对齐。”


    一直以来。


    硅谷、AI圈,乃至OpenAi公司内部,都对所谓的“超级对齐”不屑一顾、嗤之以鼻。


    因为这会严重阻碍Ai的发展和成熟,进而影响赚钱。


    什么?


    “超级对齐”战略生效后才开放使用?


    不行,他们要的不是安全,而是暴富。


    最好是一夜暴富,财富自由。


    只有暴富和财富自由才是安全。


    其他全是狗屁。


    面对质疑、讥讽、挖苦,苏茨克维公开表示:


    “鹅厂邀请我,是认同我们的“超级对齐”观点。”


    “他们认为AGI必须严格监管,不能危害人类。”


    本小章还未完,请点击下一页继续阅读后面精彩内容!好吧,这句话惹来了群嘲。


    这次群嘲的理由更专业。


    未来主义网站认为:“这是一个蹩脚的借口。虽然苏茨克维先生过去十年,为AI做出了杰出的贡献……”


    “但他应该承认,这项技术远远低于人类智慧,更不用说有意识的观察世界。”


    斯坦福大学计算机教授观点更为直接:“AI永远不会像人类一样拥有意识和智能。”


    “AI的运行基于算法,它们的功能与人类的情感、思维有着本质区别。”


    《自然》网站专门就意识问题,采访了纽约大学神经科学家杜勒。


    杜勒坚持认为:“意识只可能存在于生物体内,即便模仿生物产生意识的机制,AI系统也不会有意识。”


    澳洲《对话》杂志也来凑热闹:“ai系统真的能进行思考和理解吗?那是不可能的。”


    《神经科学》杂志论文认为:“尽管卷积神经网络算法让AI系统具备了复杂的反应功能。”


    “但这些系统并不具备人类所拥有的具体经验和神经机制。”


    “神经元是真实的物理实体,可以生长和改变形状,而AI系统中的参数,只是无意义的代码片段。”


    “不能简单将AI的一些复杂功能等同于人类意识。”


    arXIV网站一篇论文称:“谷歌最新的语言模型没有通过图灵测试。”


    此外,硅谷的投资者们也将年初在纽约召开的意识科学年会有关论文搬了出来:


    “人类大脑神经元产生意识的机制并未被发现!”


    言下之意,人类神经元产生意识的原因都不清楚,怎么确定AI系统能够产生意识了?