人工智能语言模型 在智商测试中胜过人类******
新华社讯 据《参考消息》报道,美国加利福尼亚大学洛杉矶分校的研究人员发现,在衡量智力的一系列推理测试中,自回归语言模型“生成型已训练变换模型3”(GPT-3)的成绩明显优于普通大学生。该程序利用深度学习生成类似人类语言的文本。
由美国开放人工智能研究中心(OpenAI)研发的GPT-3有很多用途,包括语言翻译和为聊天机器人生成文本等。GPT-3有1750亿个参数,是目前规模最大、功能最强的语言处理人工智能模型之一。
这项新研究在常识、美国高校入学资格考试(SAT)成绩和智商这3个方面比较了GPT-3和人类的表现。发表在阿奇夫论文预印本网站上的研究结果显示,在这3个类别中,人工智能语言模型的成绩都高于人类。
研究人员在研究报告中写道:“我们发现,GPT-3展示出了惊人的抽象图案归纳能力,在解答大多数题目时表现和人类不相上下,甚至更好。我们的研究结果表明,像GPT-3这样的大型语言模型已经具备用零样本学习方法解决一系列类比问题的初步能力。”该报告有待同行评议。
研究小组还说,GPT-3“通过与生物智能截然不同的路径,被动形成了类似人类类比推理能力的机制,尽管它并未在这方面经过明确训练”。
这项研究发现,能够回答大多数问题甚至为人类起草论文的GPT-3,在从头开始回答问题和回答多选题时的表现超过了人类。
人工智能专家、作家艾伦·汤普森博士说,GPT-3的智商超过120。毫无疑问,这属于“天资聪慧”。
当我们可以享受人工智能的服务,人类能变懒吗?******
中新网北京12月10日电 “我对人工智能持非常乐观的态度,让人工智能服务好人类,符合我们所有人的共同利益。我们要让其变为现实。”
12月9日,国际人工智能协会前主席约兰达·吉尔在2022人工智能合作与治理国际论坛的主题论坛“人工智能引领韧性治理与未来科技”上如是表示。
2022人工智能合作与治理国际论坛由清华大学主办、清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴。
国际人工智能协会前主席约兰达·吉尔作视频发言。主办方供图在约兰达·吉尔看来,当前人工智能技术的发展,将提升人类的科研效率。
“现在的科研实验室,90%的时间都是花在了重复性、枯燥的、繁琐的工作,这样的业务模式并不好。”
她指出,科学的效率不应该这么低。“我们必须相信,如果我们能够把科学家在实验室中的枯燥工作,转化为自动化,人类就能够把更多时间花在有趣的事情上。”
这同时意味着,对人类的要求也提高了。
世界工程组织联合会前主席、中国新一代人工智能发展战略研究院执行院长龚克作视频发言。主办方供图世界工程组织联合会前主席、中国新一代人工智能发展战略研究院执行院长龚克就认为,“当我们看到AI发展能够成为未来科学家的时候、能够成为越来越有用工具的时候,人如果要过一个有意义、有价值的一生,其实对我们的科学知识水平、道德水平提出了更高的要求。”
他直言,因为人类要去驾驭一个更有能力、更强大的的工具。“并不是说有了强大的工具,人就可以变得懒惰,人应该变得更聪明。”
联合国助理秘书长、联合国开发计划署政策与方案支助局局长徐浩良指出,“我们在呼吁制定国际标准,确保人工智能具有包容性、问责性和韧性。很多人提到人工智能的伦理标准等等,我们认为包容性在政策讨论及实践中都至关重要,所以社会要能够理解其收益和风险。”
显然,人类在获得人工智能“服务”的同时,如何防范由此带来的“风险”同样应引起关注。
约兰达·吉尔直言,安全系统的建立对于人类和设施的安全非常重要。“如果没有人工操作员的话,它是无法保证安全的。但现在有很多人工智能在安全方面的系统在没有得到足够提前训练的情况下,就被部署出去了,这是非常值得关切的。”
美国国家工程院外籍院士、北京智源人工智能研究院理事长张宏江作视频发言。主办方供图美国国家工程院外籍院士、北京智源人工智能研究院理事长张宏江提出,人类在设计人工智能系统时,要考虑到人工智能系统本身知道自己需要由人类介入,这是非常重要的一点。(完)
(文图:赵筱尘 巫邓炎) [责编:天天中] 阅读剩余全文() |