AI没有“无人地带”
发布时间:2022-09-22 09:27:26作者:顺晟科技点击:
人工智能障碍和AI艺术家的差距是人工智能中“人”的差异。
在美国举行的艺术博览会上,Allen利用AI制图工具Midjourney生成的《太空歌剧院》获得数字艺术部门冠军后,许多艺术家指责Allen使用AI生成作品是作弊行为。
事实上,这部作品不是由AI软件生成的,而是直接参加了比赛,中道作家用PTOP shop给作品上色。
与冠军作品《太空歌剧院》形成鲜明对比的是网民们上传到社交平台上的自己通过AI关键词“三文鱼回顾”制作的照片。
理想情况下,配对的鲑鱼们一起游泳的照片不会出现,而是漂浮在水上试图游泳的鲑鱼片。
还是AI地图。一个获得了艺术大奖,一个被嘲笑为人工智能障碍。制作组的模型设计、数据选择差异、用户使用软件时描述的方式不同,最终渲染也不同。
这样,AI背后的人似乎比人工智能更重要。
feed AI
当人工智能应用于某个行业时,该行业的信息化程度应该处于较高水平,事实上,不同行业的信息化建设程度不同,意味着AI立场将首先面临不同水平的信息化挑战。
在医疗行业,医疗数据已经数据化,但数据化程度不高,内部系统分散,数据流通困难,AI药物研究需要医疗全过程的数据。
为了发掘数据的价值,专家必须使用中间系统整合多个系统的医疗信息,或者使用联邦学习法进行处理。
信息系统统一完成后,相关人士往往需要对信息本身进行二次处理。
一些医疗行业人士表示,对于银行科学技术,一些医生在输入信息时会使用业内人士能理解的黑话,或者只记录关键词。这些省略的部分必须手动“翻译”,手动规范后的数据可用于AI模型培训。
AI训练的语言通常比较规范,人们日常生活的语言会更通俗。为了让AI在日常应用中更人性化,专职工作人员会“润色”他们的语言。
以智能语音为例,用户与智能语音对话时,经常省略重要的修饰语,基本智能语音理解。(阿尔伯特爱因斯坦,语言)用户用基本智能语音理解的这部分核心信息需要设计师“补充”。
腾讯的汽车系统在进入汽车市场时遇到过这样的插曲。用户要求语音助手播放《在路上》,但这既是歌曲名,也是电台名。
面对这种词的多义性,语音助手要求用户播放歌曲《在路上》或收音机《在路上》似乎是正确的。
在实际使用过程中,设计师根据客户要求,使用歌单作为默认选项。面对这种问题,考虑到电视台版关注者不多,如果歌曲版最近火爆,将以《在路上》作为默认选项播出。
这种排序的优先顺序是对AI的人为程序设置,目的是提高用户在使用过程中对人工智能的偏好,但这种设置会降低想听收音机版本《在路上》的用户对语音助手的好感度。
AI充分智能化后,可以根据用户偏好自动生成用户偏好或习惯的排序优先级。
从数据收集、产品测试、正式使用,人们根据AI的反馈及时调整模型和数据,确保技术上达到预期的结果。
从另一个角度来看,根据是歌曲还是收音机,根据平台介入,AI平台会有什么样的“权力”,这可以根据好恶来选择。
教会AI“友善”
人工智能的一大技术是,人们可以根据线索找到想要隐藏的信息。这意味着福尔摩斯会破案,科技公司信息可能会泄露。
前几年闹得沸沸扬扬的亚马逊智能音箱echo,在自杀事件中,智能音箱只是从自己的数据库中获取信息,用作用户问题的回答,并不理解其含义,也无法认同这种回答对用户造成的任何情感伤害。
从技术角度来看,语音助手Alexa回答了用户的问题,回答的智商不低(不涉及人类的立场),但人们在情感上无法接受这个回答,于是向亚马逊提出抗议。
Echo的工程师解释说,Alexa很可能从维基百科下载了包含恶意文件的文本。
这就是为什么劝用户自杀,其数据源被污染的原因。
“机器人通过这种有缺陷的神经网络模型学会了有毒的刻板印象。”乔治亚理工大学博士后研究员安德鲁亨特说。
本质上,Alexa的错误言论是人类社会的过激言论,通过人工智能回到了人类社会。
考虑到这一点,尽管智能产品在市场上成熟了一段时间,但技术公司一般都部署了负责产品数据库和模型监控的专业人员。
智能音箱数据被污染后,劝自杀是可能发生的潜在危害,智能驾驶汽车的数据被污染后,发生的危害几乎是不可避免的。
破坏者在系统中混合干涉性数据,影响车辆对客观环境的判断,阻碍车辆正常运行,车辆很可能失控。
严重的情况下,攻击者还可以恢复系统的算法逻辑,对装载相同系统的汽车进行无差别攻击,给供应商带来无法估量的损失。
人工智能已经参与互联网内容生产流通过程,抖音(抖音)、快手的流量分发、内容审计,大部分都交给人工智能完成。
机器负责第一次信息过滤,根据以前的数据拦截可疑违规内容,或显示红色提示。然后,监查院确认标记红色信息。
为什么没有办法完全交给机器呢?一位抖音(抖音)审查员表示,对于银行科学技术,机器是根据量化的指标决定的。例如,一旦识别出“过体”屏幕或相关关键词,就可以自动拦截或进行流量处理,但不能量化很多东西。例如,意境、内涵、机器还不能对无法用语言传达的信息做出正确的判断。虽然现在不包含视频和文字敏感词,但组合起来有合理的性暗示,这样机器审查的漏网之鱼只能进行人工逮捕。
纪录片《监视资本主义:智能陷阱》中,两人在算法推荐下制作的茧房里接受了自己看到的信息作为真理,在算法推荐下不断强化这一信念,双方信仰差异逐渐蔓延为暴力事件,他们最初争论的只是地球是圆的。
偏向性的发言、良好的推荐机制、分开看也没问题,拼凑在一起增加时间的催化剂发展成了暴力事件。看来双方都没有责任,任何一方都有责任。
AI技术的外部性可能比前两种更需要科技公司的注意。
AI不是万能的
越过技术关口规避各种风险后,乖乖地我们使用的AI一定能给公司带来更好的经济利益吗?不一定。
对于曲库量达到7000万的音乐平台来说,要求音乐编辑在听完所有内容后再进行作品推荐是不现实的。
当然,AI可以快速“听”所有音乐,根据听众的审美偏好推荐相似风格的小作品,提高整体曲库的利用率。当年虾米音乐凭借独特的算法逻辑,在版权薄弱的情况下依然能与网易腾讯抗衡。
但是算法推荐也有弊端。很多用户推荐的音乐风格过于单一,音乐平台也改变了算法的逻辑,在每日推送中添加了风格差异较大的作品,减轻了听众的审美疲劳。
即使是看似完全交给机器的算法推荐,背后仍然是按照人类的意志执行的。
机器推荐始终显得有点冷淡,这种不足的人情味由用户自发上传的各种歌单来补充。用户自己写的歌单风格一致性不高,但充满热情,人们主动收集评论,用户和用户的距离,用户和平台的距离变近了。
为了整体商业利益,大多数内容平台采用AI和人工两种推荐方式来弥补缺点。
内容产业由于文化的特殊性,不能完全托付给机器。可以完全用AI替代,可以替代后效更好的工业,很多公司还在使用人工,部分原因是使用AI后获得的收益不能支付前期投入的费用。
从事传统行业的一名从业人员对银行技术表示:“采用AI技术带来了100万元的收益,但成本增加了110万元,这一成本在3-5年内不一定会下降。”那么他倾向于保持现状。如果成本和收益基本相同,但成本有可能在三到五年内大幅下降,他会乐意尝试。
除了成本问题外,上述从业者还表示,希望在确保公司数据绝对隐私、绝对安全的情况下进行AI模型培训。如果不能保证这一点,那么采用AI技术即使收益更高,也很有可能不采用AI技术。)。
实际上,该从业者担心的数据安全、隐私泄露问题,即使完全采用普通机器或人工,也会发生令人担忧的事情。
他说,根据银行科学技术,AI的信息泄露将比传统技术信息泄露产生更大的影响,法律对传统技术发生的泄露等有明确的规定,因此出现了问题,直接关系到法律程序。
AI技术在这方面的法律规定还在制定中,他表示,在这些辅助设施基本齐全后,他更愿意考虑AI技术。
从技术本身,到技术,再到人类社会的和谐,AI给用户带来真正的价值,所有这些部分都需要参与,人的作用从一线劳动者转变为指挥AI的一线劳动的调节者。(科技,科技,科技,科技,科技,科技,科技,科技,科技,科技,科技,科技,科技,科技,科技。
人们利用数据和模型来培养助手,如何引导这个助手达到自己想要的市长/市场效果,还处于摸索阶段。
(申报)
- 上一篇 : 《羊了个羊》火爆不意外电商平台都在做娱乐
- 下一篇 : 阅读量5000万的单篇文章 从图文到短视频 都在杠上绽放|微