AI自动写作 一半几可乱真

发布 : 2019-2-16  来源 : 明报新闻网


用微信扫描二维码,分享至好友和朋友圈
非牟利人工智能(AI)研究组织OpenAI研发出一套「自动写作」系统,利用语言模型运算写作出贴近自然语言的文章。组织忧系统成「双面刃」,被用于大量生产假新闻等不实资讯,罕有决定押后完整公开相关研究的程式数据,盼让公众有更多时间讨论技术影响,并促政府研究是否需要规管。

规模最大 毋须大量训练数据

这套名为GPT2的AI系统采用「零次学习」(zero-shot learning)的运作模式,运作基础是透过分析社交网站Reddit中最少有3个获用户评为「有价值」的1000万篇文章而建立的语言模型。虽然这并非崭新概念,但规模为迄今最庞大,较此前最先进的模型大12倍。与其他AI应付每种任务都需大量训练数据作范本学习不同,GPT2 理论上可藉由一套语言模型来应付多种涉及语言的工作,例如翻译、总结文章等,毋须为每种任务重新学习,可能成为机器学习的突破。

输入句子 系统猜想下文

GPT2能够按照任何输入的提示,写出相关文章,例如提供一句句子,系统便会按照语言模型与统计数据猜想出此后最可能出现的词语,并编写出行文与内容连贯一致、恍如真人撰写的文章。测试中能写出像真文章的机会达五成,但亦会出现字词重复、知识性错误与文章主题不自然改变等。另外,在回应提问的任务中,GPT2的成功率约4%,虽然属起步阶段,但其他基于小型语言模型的AI成功率只有1%。

OpenAI政策研究专家布伦戴奇(Miles Brundage)指出,GPT2产生的文章质素远比此前同类系统的作品高明,认为同类研究对社会影响深远,例如可能被滥用于撰写关于企业的假新闻、“韦y涉及种族歧视或性别歧视的文章,或是在亚马逊、Trivago等网上消费资讯平台留下大量虚构评论等。

组织目前已公开研究论文,但暂缓披露相关的程式编码以及采用的语言模型,以便进一步确认系统能力,亦盼引起公众思考AI带来的后果。布伦戴奇警告,全球各地都有类似研究,同类AI应用在未来无可避免。他表示,政府应展开检视AI应用对社会的冲击,并研究是否须设立规限,例如有系统地监察AI发展,因为他不认为这些工作全是研究人员的责任。

OpenAI由美国太空与电动车企业家马斯克(Elon Musk)与奥尔特曼(Sam Altman)于2015年创立,旨在研究及推广AI,并主张与其他机构自由合作,公开所有研究资料,盼AI造福人类,回应AI威胁人类的忧虑。

专家:社交平台有责任阻不实资讯

今次OpenAI局部公开研究成果的做法惹学界热议。纽约大学自然语言研究专家鲍曼(Sam Bowman)警告,即使OpenAI没有公开程式码,但其论文亦能作为参考,迟早让有心人开发出类似的系统。加州大学柏克莱分校电脑科学系副教授雷希特(Benjamin Recht)批评OpenAI研发哗众取宠的AI系统,一早应虑及后果。专研科技对社会影响的专家农尼克(Brandie Nonnecke)认为,运用AI炮制假新闻者不会绝[,重要的是facebook等平台必须负起审查责任,阻截不实资讯流通。(BBC/金融时报)