北京时间5月2日消息:有AI教父之称的杰弗里?辛顿(GeoffreyHinton)周一宣布,他已经从谷歌离职。半个世纪以来,辛顿一直在培养ChatGPT等聊天机器人背后的核心技术。但是现在,他担心AI会造成严重危害。鉴于社会的实际需要,弱鸡娱乐资源网需要改变一些原有的问题,更好的服务于社会,造福于人们。爱网络,爱这里。网络人的烟火,熬不尽的网络江湖。专注活动,软件,教程分享!总之就是网络那些事。http://ruoj.cn/
辛顿是AI先锋。2022年,辛顿博士和他在多伦多大学所带的两研究生开发的技术,成为了AI系统的知识基础。如今,科技行业的巨头们认为,AI系统是它们未来发展的关键。
为发展AI而后悔
然而就在周一,他正式加入了越来越多的AI批评人士的行列。他们认为,这些积极开发基于生成式AI的产品,ChatGPT等热门聊天机器人等被速研发,这是在奔向危险。
辛顿说,他已经辞去了谷歌的工作,以便自己可以自由地谈论AI的风险。他已经在谷歌工作了十多年,成为该领域比较受尊敬的人物之一。辛顿表示,他现在对自己一生从事的工作感到有些后悔。
我用平常的借口来安慰自己:就算我没做,别人也会做的。上周,辛顿在多伦多家中的餐厅接受了长篇采访时称。那里距离他和学生取得AI突破的地方只有几步之遥。
辛顿从AI开拓者到末日预言者的转变,标志着科技行业在这个几十年来也许比较重要的拐点上经历了一个非凡时刻。业界领袖认为,新的AI系统可能与20世纪90年代初推出的络浏览器一样重要,并可能引发从药物研究到教育等领域的突破。
但是,令许多业内人士苦恼的是,他们担心自己正在向野外释放一些危险东西。生成式AI已经可以成为制造虚假信息的工具。很,它可能会对就业构成威胁。科技行业比较大的担忧者表示,在未来的某个时候,它可能会对人类构成威胁。
辛顿对此表示,很难想象你能如何阻止坏人利用它做坏事。
自从OpenAI在3月份发布了比较新版ChatGPT-4模型后,包括马斯克在内的上千科技领袖和高管道签署联信,呼吁暂停开发比ChatGPT-4更先进模型6个月时间,因为AI对社会和人类构成了深刻风险。几天后,有40年历史的学术组织人工智能促进协会的19位现任和前任发表了他们自己的公开信,警告AI的风险。该组织包括微软首席科学官埃里克?霍维茨(EricHortz)。微软已将OpenAI的技术应用于一系列产品,包括必应搜索引擎。
辛顿没有在这两封信上签。他说,在辞职之前,他不想公开批评谷歌或其他。上个月,他通知他将辞职。周四,他与谷歌母AlphabetCEO桑达尔?皮查伊(SundarPichai)通了。他拒绝公开讨论与皮查伊谈话的细节。
谷歌首席科学家杰夫?迪恩(JeffDean)在一份声明中表示:我们仍然致力于对AI采取负责任的态度。我们在不断学习了解新出现的风险的同时,也在大胆创新。
AI危险更到来
辛顿认为,随着企业改进AI系统,它们会变得越来越危险。看看五年前和现在的情况,他在谈到AI技术时说,接受差异并将其传播出去。太可怕了。
他表示,直到去年,谷歌一直是这项技术的适当管道理者,小心翼翼地不释放可能造成伤害的东西。但是现在,微软用聊天机器人增强了必应搜索引擎,挑战谷歌的核心业务,导致谷歌也在竞相部署同样的技术。辛顿说,科技巨头陷入了一场可能法阻止的竞争。
他目前比较担心的是,互联将充斥着虚假照片、视频和文字,普通人将法再知道什么是真的。他还担心AI技术比较终会颠覆就业市场。如今,像ChatGPT这样的聊天机器人往往是对人类工作者的补充,但它们也可能取代律师助理、个人助理、翻译和其他处理机械化任务的人。它省去了繁重的工作,但它带走的可能不止这些。辛顿称。
未来,他担心未来版本的AI技术会对人类构成威胁,因为它们经常从分析的大量数据中学习意想不到的行为。他说,这成了一个问题,因为个人和不仅允许AI系统生成自己的计算机代码,还允许它们自己运行这些代码。他担心有一天真正的自主化武器那些杀人机器人会成为现。
一些人相信,这种东西际上会变得比人更聪明,他表示,但大多数人认为这还很遥远。我也曾认为这还很遥远。我认为这需要30到50年甚至更长的时间。显然,我现在不再这么想了。
辛顿说,当人们过去问他如何能研究有潜在危险的技术时,他会转述美国原子弹之父罗伯特?奥本海默(RobertOppenheimer)的话:当你看到某种从技术上感觉不错的东西时,你就会去做。