莫让过度炒作耽误新技术******
莫让过度炒作耽误新技术
李华林
横空出世的AIGC,看似拥有广阔前景和多种可能,但目前该概念尚是一个新兴事物。从实验室到大规模商用落地,还有不短距离,市场各方有必要冷静再三,莫让炒作耽误了好技术的好前程。
兔年首个交易周,A股市场交投活跃,不少板块收获“涨声一片”。其中,AIGC概念板块指数前4个交易日一度上涨逾7%,引得一众投资者蜂拥至互动平台,追问多家上市公司:是否涉足AIGC?
蹿红的AIGC到底是什么?AIGC即AI Generated Content,也就是利用人工智能技术自动生产内容,包括文字、图片、音频、视频、代码等。以最近爆火的聊天机器人ChatGPT为例,这款由美国某实验室推出的机器人既会写论文,也能创作小说,还可编代码,上线仅2个月,月活用户达1亿。因为出乎意料的“聪明”,AIGC被认为是“科技行业的下一个颠覆者”“内容生产力的一次重大革命”。
AIGC的横空出世,与此前红极一时的元宇宙、Web3等一脉相承,背后都有着相应技术支撑,承载着人们对未来生活的美好期待。近年来,随着5G通讯、自然语言生成等底层技术日渐成熟,人工智能突飞猛进,用AI绘画、让聊天机器人写代码……现实场景的成功应用,让人们切实触摸到了AIGC带来的改变。
我国对数字经济的支持,也给AIGC加了一把火。党的二十大报告提出“加快发展数字经济”,数字经济日益成为高质量发展的新引擎,是新一轮国际竞争的重点领域。某种程度上,把握住数字经济发展先机,就能抢占未来发展制高点。代表数字技术方向之一的AIGC,被视作新赛道。
风口之上,谁都想趁机起飞。反映到资本市场,已有不少上市公司积极表态,将在AIGC领域加大投入布局。各路资金也闻风而动,推动相关概念板块一路上涨,多只股票更是接连涨停。
不过,尽管AIGC火爆一时,看似拥有广阔前景和多种可能,但目前该概念尚是一个新兴事物,还存在关键核心技术不成熟、商业应用场景较少、技术伦理挑战突出等问题。从理想到现实,从实验室到大规模商用落地,还有不短距离,市场各方有必要冷静再三,莫让炒作耽误了好技术的好前程。
从过去经验看,利用人们对未来技术的着迷,以及部分投资者幻想一夜暴富的心理动机,过度宣传、借机炒作的事例不胜枚举。这其中,有些是市场资金有意捧之,相关股票被动身价上涨;有些则是上市公司主动“炒概念”“蹭热点”。但无一例外的是,概念炒作越烈,市场泡沫越大,与国家着力发展实体经济的政策基调相去愈远,对相关行业发展的干扰愈甚,到头来难免落得一地鸡毛。
还要注意,随意炒作概念涉嫌市场操纵,一直被监管部门明令禁止。不久前,证监会表示,规范和引导资本市场健康发展,加强对“蹭热点”“炒概念”及上市公司相关方操纵行为的监控处置和打击力度。随着全面注册制正式启动,对相关乱象的整治将只严不松,倘若仍一意炒作,必将被监管部门所不容。
对一项新兴技术,投资者抱有热情的同时,也要保有一份审慎。正如多家上市公司坦言,目前AIGC对业务营收影响不大,仍有待进一步推广应用。AIGC概念股能否受益于技术的发展尚未明朗,投资者需把握好投资尺度,切勿跟风炒作,以防追高被套。
事实上,再神奇的技术也需经过市场反复检验,任何创新产品的价值实现,都应建立在理性的交易秩序之中。投资者多一份价值投资的理智,上市公司多一份久久为功的定力,市场多一份行稳致远的从容,才有助于一个新兴行业的健康长远发展,让梦想更好地照进实现。
人工智能如何做到可信、可用?专家热议:把责任归结到个人******
中新网北京12月11日电 人工智能治理的理想状态,是人工智能技术能做到可知、可信、可控、可用。而在现实中,人工智能技术手段虽然非常强大,但是离完美、完善仍有相当的距离。从技术角度和技术应用角度,人工智能的发展如何做到扬长避短?
近日,在2022人工智能合作与治理国际论坛上,专家围绕该话题进行了讨论。
中国工程院院士、鹏城实验室主任高文认为,现阶段很多技术还处于发展的过程中,如果过早地说这个不能用、那个不能用,可能会抑制技术本身的发展。但反过来,如果什么都不管,也不行。
“因此,现在更多还是从道德层面多进行引导。同时,做技术的人,也要尽量把一些可能的风险、抑制工具,即约束风险的工具,尽快想明白。自己也做,同时号召大家做,两者结合。”他说。
清华大学智能产业研究院国强教授、首席研究员聂再清认为,我们要保证能够创新,但同时不能让创新对我们的生活产生破坏性的影响,最好的办法就是把责任归结到个人。
“技术的背后是有人在控制的。这个人应该时刻保证工具或创新在危险可控的范围内。同时,社会也要进行集体的监督,发布某个产品或技术,要能够召回、撤销。在创新和监管之间,当然是需要平衡的,但归根结底,还是要把责任落实到个人身上。”他指出。
瑞莱智慧RealAI公司联合创始人、首席执行官田天补充道,在技术可解释性方面,需要去进行技术发展与相应应用场景的深度结合。大家需要一个更加可解释的AI模型,或者更加可解释的AI应用。
“但我们真正想落地的时候,会发现每个人想要的可解释性完全不一样。比如:模型层面的可解释,可能从研发人员角度觉得已经很好了,但是从用户的角度是看不懂的,这需要一些案例级的解释,甚至通过替代模型等方式进行解释。因此,在不同领域,需要不同的可解释能力,以及不同的可解释级别,这样才能让技术在应用场景发挥最好的作用。”他说。
将伦理准则嵌入到人工智能产品与系统研发设计中,现在是不是时候?
高文认为,人工智能软件、系统应该有召回的功能。如果社会或伦理委员会发现这样做不对,可能带来危害,要么召回,要么撤销。
高文说,应用的开发者,系统提交或者最终用户让他去调整的时候,他应该有责任。如果开发者发现已经踩线了,应该给他一个保护机制,他可以拒绝后面的支持和维护,甚至可以起诉。“不能只说哪一方不行,光说是开发者的责任,他可能觉得冤枉,因为他只提供工具,但有时候是有责任的,只是说责任怎么界定。”
“在人工智能的发展过程中,一方面要建立一些红线。”田天建议,比如,对于人工智能的直接滥用,造假、个人隐私泄露,甚至关联到国家安全、生命安全的,这些领域一定要建立相关红线,相应的惩罚规定一定要非常清晰,这是保证人工智能不触犯人类利益的基本保障。
“在这个基础上,对于处于模糊地带的,希望能留有更多空间。不光是从限制角度,也可以从鼓励更加重视伦理的角度,促进合规地发展。”田天称。
2022人工智能合作与治理国际论坛由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴,联合国开发计划署(UNDP)、联合国教科文组织(UNESCO)等国际组织、国内外学术机构支持。(中新财经)
(文图:赵筱尘 巫邓炎) [责编:天天中] 阅读剩余全文() |