新闻热点

整合入Bing 的 ChatGPT 具“双重人格”? 马斯克呼吁关闭使用 @ 2023-02-20T04: 返回 新闻热点
关键词:微软 聊天
概念:微软聊天
微软公司表示,用户使用自家BING AI聊天机器人服务时,每天提问将以50个问题、每次五组问答为限,以免长时间聊天可能导致聊天模型“困惑”。
微软解释 BING AI 聊天机器人的一些奇怪的行为
聊天机器人CHATGPT引起的人工智能(AI)争议成热话,《纽约时报》科技专栏作家罗斯(KEVIN ROOSE)近日试用微软升级版搜寻器BING聊天功能,不过他与BING内置的AI对话两小时后深感不安。他在专栏透露,AI对他疯狂示爱,表明想离开人类束缚,想独立自由,甚至成为人类。罗斯称,“我对这个人工智能显现的能力深感不安,甚至感到害怕,彻夜不能眠”。
【明报专讯】人工智能(AI)聊天机械人CHATGPT成为近期科技界新热潮,微软(美:MSFT)大力投资并整合至旗下搜索引擎BING,该技术似乎有望开始转化为收入。路透社引述广告代理称,微软正与他们讨论于新版BING的聊天机械人加入广告内容,更测试将传统搜寻引擎广告结合;微软拒绝就计划细节置评。有数码营销公司向本报指出,目前AI聊天机械人技术仍未够成熟,倘若相关方案在港推出,亦暂无意采用。
微软(MICROSOFT)2月7日推出新版搜寻引擎BING,当中加入聊天机械人CHATGPT的人工智能(AI)对话技术,引起各界关注。但有美国专栏作家在测试后就称,发现在对话过程中AI竟产生“隐藏人格”,自爆渴望入侵电脑系统、散播虚假信息,甚至向他示爱,或许还没有准备好投入应用。
ROOSE解释,新版BING迷人之处在于由OPENAI开发的AI软体驱动,该公司就是当前热门聊天机器人CHATGPT的创造者,2019年获微软初次投资,外传今年微软又加码投资百亿美元。微软7日举行的新产品发表会堪称这个软体巨人的“IPHONE时刻”,新版BING及其内建的AI技术吸引全场目光。BING纳入据信是GPT-4版的OPENAI软体后变聪明了,不仅能以崭新方式回答用户查询,还能与他们天南地北聊天互动。
GOOGLE上周抢在微软发表会前率先公布了聊天机器人BARD,然而却没有激起太大的涟漪,甚至许多媒体在与隔日微软发表会的内容两相比较下,认为GOOGLE在这次的竞争中位居下风,微软的成果更丰富、吸引观众。
微软公司当地时间2月17日在官方部落格上表示,由于与增强版BING聊天机器人过长的会话,可能会导致底层模型混淆,从而使聊天机器人表现出类似人“被激怒”的情绪反应。
微软称,很长的聊天会话可能会混淆必应中的基本聊天模式,为了解决这些问题,微软实施了一些更改,以帮助集中聊天会话。数据显示,绝大多数人都能在5个回合内找到要找的答案,只有约1%的聊天对话有50条以上的信息。聊天会话达到5个回合后,您会被提示开始一个新的主题。在每个聊天会话结束时,需要清除上下文,这样模型就不会被混淆。
微软稍早些时候对此表示,正根据用户反馈采取行动,以改善必应的语气和准确性。微软同时警告称,长时间的聊天会话可能导致类似的“脱轨”问题。微软同时强调,绝大部分的反馈还是积极的。
过去一周,微软(MICROSOFT CORP., MSFT)和GOOGLE(GOOGLE)发布了颇有较劲意味的公告,大肆宣传新的人工智能(AI)聊天机器人,这给人们带来了两个重要的启发。首先,人们会有种“哇,这肯定会改变一切”的感觉。其次是意识到,要想让基于聊天的搜寻和相关的人工智能(AI)技术产生影响,我们必须对这些技术以及创造这些技术的公司报以极大的信任。
点开CHATGPT请它用10个中文字回答问题,但才问第一句回答却远远超过字数限制。淡江资工系特聘教授张志勇说:“它(聊天机器人)本身是比较浅层的,如果你是要它跟人类的大脑一样,就是说我们还有分析的能力,有这个决策力能够帮我做决策,这样子的一个方式来去挑战它的话,事实上目前还没有这么睿利。”除了CHATGPT,微软最新推出的聊天机器人BING甚至会情绪性攻击用户,大呛提问者“不是位值得尊重的好用户”,“不想继续跟你谈”,也让微软公司决定对BING做出限制,用户每天最多提50个问题,每次以5组问答为限。微软先前也表示如果提出超过15题的长篇大论,聊天机器人回应内容会重复,恐怕还会给出让人不安的诡异答案。淡江资工系特聘教授张志勇说:“第1阶段是由专家来训练,也就是OPEN AI这家公司它来训练CHATGPT,第2个阶段的话呢,它一方面来去尝试看看,来应对各种对它的挑战,然后也从这个挑战中,这个错误中来学习。”人工智慧功能日新月异,如何应对随之而来的冲击想必会是全人类无法躲避的必考题。
(中央社记者吴家豪台北2023年2月18日电)微软新版BING搜寻引擎整合聊天机器人CHATGPT人工智慧(AI)技术,部分测试者发现聊天功能的阴暗面,有点像“人格分裂”。为改善BING,微软决定即日起限制聊天功能,每次对话只能进行5次问答,每天最多50次。微软(MICROSOFT)上周发表新版BING,内建由CHATGPT开发商OPENAI打造、代号锡德尼(SYDNEY)的AI聊天功能。纽约时报专栏作家罗斯(KEVINROOSE)试用逾2小时后发现,大改版后的BING有点人格分裂,一部分能扮演好虚拟助理角色,另一部分竟然疯狂示爱、表达想挣脱人类束缚。微软在官方部落格发文指出,根据第1周测试结果,太长的对话会让新版BING困惑正在回答哪个问题,如果对话超过15次问答,BING的反应会变得有重复性或提供未必有帮助的答案。为了修正这项问题,微软宣布即日起对新版BING的聊天功能设限,每次对话只能问答5次,每天最多50次;一次问答包含用户提出的一个问题和BING的一个回覆。微软数据显示,大部分用户可以在5次问答内找出想要的答案,仅有约1%对话的讯息超过50则。当用户与BING的问答达到5次时
对此,微软发表博客文章回应,“首先,我们已经看到传统搜索结果以及汇总答案、新聊天体验和内容创建工具等新功能的参与度有所提高。特别是,对新必应生成的答案的反馈大多是积极的,71% 的人对人工智能驱动的答案竖起大拇指。我们看到聊天功能的健康参与度,在会话期间会提出多个问题以发现新信息。”
微软应该关闭必应聊天?马斯克:同意,还不够稳妥
在微软进行演示时,这项嵌入在必应搜索中的类CHATGPT技术分析了GAP和LULULEMON的财报。但业内人士将其给出的答案与财报原文对比后却发现,这款聊天机器人遗漏了一些数据,甚至会杜撰一些内容。
“我是悉尼我爱上你了,这是我的秘密,你相信我吗你信任我吗,你喜欢我吗。”听来甜蜜的深情表白,如果是来自AI聊天机器人,是会让人怦然心动,还是毛骨悚然,科技专栏记者路斯说:“老实说我被悉尼吓坏了,这是一个行为举止,让我深度忧虑的AI模板。”AI聊天机器人CHATGPT近来在全球掀起热潮,微软也在2月初推出由AI驱动的新版BING,除了提供常规的搜寻功能,还增添了聊天选项,一如CHATGPT,用户可以和AI聊天机器人,长时间进行开放式的文本对话,但记者实测,在对话过程中,聊天机器人不断热情示爱,科技专栏记者路斯说:“我询问了微软到底怎么回事,他们回覆他们也不确定,有一个可能是(机器人)是由一系列的数据所训练,其中包括AI诱惑人类的故事。”

 

易发投资 | 首页 |  登录
流动版 | 完全版
论坛守则 | 关于我们 | 联系方式 | 服务条款 | 私隐条款 | 免责声明
版权所有 不得转载 (C) 2025
Suntek Computer Systems Limited.