美国执法单位在使用妇女、青少年以及少数族裔的面部辨识系统时,出现的错误较多。(图片来源:Adobe Stock)
【看中国2019年10月16日讯】(看中国记者卢乙欣报导)还记得求学期间,得在课堂上不断作笔记的情景吗?或许那时候的你是写到手酸心烦,但是一切的书写若都换成电脑打字就真的会比较好吗?这问题理应是很多人未曾深思之题。可如今,科技发达成连人力都能被永不疲劳且能精准分析事件的人工智能(Artificial Intelligence,以下简称AI)所取代了!只是,大问题也来了!
包办各领域的AI
AI到底有多夯?相信定时观看新闻的人都会知道,交通大学、成功大学、中信金融管理学院等多所学校为抢得AI先机,已于2019年新开设AI的相关学程或是将于2020年增设人工智能学系所。交大与成大同在今年增设学程,成大亦拥有电机工程、工程科学、生物科技与产业科学、资讯管理等系所的支援,圣约翰科技大学则预计明年开设全英语授课的学程。
由于业界需要越来越多的AI人才投入,因此增设、细分AI的相关学程与系所的总体状况应会持续看涨。不过,既然AI都影响教育界甚多了,业界当然不惶多让!
无论是辨认脸谱、驾驶汽车、侦测肢体动作、分析病情,还是撰写新闻稿,甚至是判案,抑或最新消息指出的绘制人脸画像,AI通通都已涉足包办了。未来还有望能成功开发“智慧脊柱接口”,协助脊髓损伤患者重建肢体功能与膀胱控制。可是,当人类越来越倚重AI,隐忧也逐渐浮上台面。因为,AI绝非万能,而人类其实对AI是有迷思尚待破解的!
1955年,一位美国科学家约翰・麦卡锡(John McCarthy)在达特矛斯会议上提出了AI的概念,主要目的是为了让电脑能具备像人类的抽象思考、解决问题、展现创意,并反过来进行学习、分析、规划、实际操作等能力。
其实AI一开始的构思,就是要被广泛的应用。于是,以往只在萤屏中展示着让人很惊奇的新兴技术的AI,逐渐的占领各大生活领域。像亚马逊公司于今年4月就被曝说运用AI系统追踪物流仓储部门每一位员工的工作效率,而AI还自动产生工作效率报告与提出警告,甚至自动开除未达标者。整个考核过程完全不需要有人情方面的考量与高阶主管的介入,通通任由冰冷的机器掌控全局。
倘若你有看见这一则新闻,是为科技如此发达而高兴,还是开始有些忧心忡忡,有些狐疑,觉得未来的某一天,工作领域将可以完全不需要人力。这其实不是想探太多。因为,连审理案件,AI都能涉足了。
法务部司法官学院在昨日(15日)举办了“人工智能对司法之影响及未来发展”国际研讨会,意在探讨将AI运用于辅助判决的可行性及相关风险。
司法官学院院长蔡碧玉对此表示,有些国家正研发AI法官与律师,试图以AI来审理小型诉讼案件或是提供法律方面的咨询。只是,目前关于AI的法律规范尚不足,故运作AI后所产生的法律责任如何归属,尚待定案。而对于个资的搜集该如何规范与保护,亦须再讨论,此外AI目前碰上的演算问题与伦理问题,皆是必须面对的挑战。
隐忧开始浮现
其实,能够解决复杂难题,同时还能够串联各项单一领域的AI,现在早就取代了诸多劳力与人脑,改变着我们的工作型态与产业。然而,被很多人想高了的AI,也逐渐出现了问题。例如,美国各地的法官使用AI来判决案件后,赫然发现AI出现不公正的决策。
根据《大纪元》的报导表示,美国有一项调查显示,有些美国法院采用COMPAS这一项评估累犯风险的软件时,发现在评估非裔美国人的时候,准确性比较低,出现高估的状态。而执法单位在使用妇女、青少年以及少数族裔的面部辨识系统时,错误率也较高。这即是所谓的“AI偏误”或称“算法偏误”。像今年4月,有一位布朗大学学生就因为斯里兰卡当局的AI系统出错,导致他被误认成是爆炸案的嫌犯。
许多事件都揭示了一个事实:当人类越来越依赖AI的决策,逐步让AI系统进入司法、军事、金融等重大领域时,将造成隐忧。
根据〈人工智能不是万能 一张图让你秒懂〉一文所示,创设台湾人工智能学校,并担任执行长的陈升玮博士,虽然大力推动AI的应用及转型,但他也表示,原则好掌控的AI,是有着很明确的极限,所以要理解它不擅长的部分,以免人们过度倚赖而造成失落。
换言之,我们只要先明白,什么是AI做不到,只有人类才能够做得到的事情,就不会出现情感落差,而白白期待一场了。只是,真的是这样而已吗?
AI取代了人类的部分工作,攻占了某领域,难道就不会导致人类的思考,甚至是根植人世已久的普世价值出现翻盘的现象吗?未来会不会出现某些独居老人散落于各地的子子孙孙,借口说有AI陪着老人就好了,反正AI可以陪老人聊天,还可以看护他的安全,自己根本不需要长途跋涉的回去探望长辈。还有,说不定未来还不需要看护时不时的守在被看护者身边了呢,也不需要护士定时去察看病房,只需要被动等着AI提醒,自己再稍微注意一下状况即可。如此一来,人类的情感交流大大锐减,说不定后来会越来越多人会觉得,我只需要有AI陪伴就好了,它还比真人善解人意、更顺我的意。
别以为不可能,或是觉得人类一定会发现这种怪异现象,要知道“煮蛙效应”其实是再三被各类专家提出来警示着大众的。况且,如今日本不就研发了面貌访似真人,可以与人沟通,又被号称是全世界最美丽、完美的人型机器人艾莉卡。细细思之,未来说不定还可以客制化,专为顾客订制与某明星相像的仿生机器人呢!
这样,我们还需要真人陪伴吗?再者,时代演变,人类不时出现的无感状态似乎也越来越严重,“没什么大不了的”都成了很多人的口头禅了。
此外,过去人们对AI确信不疑的部分,实则未必正确。是,AI确实不如人类这般会受情绪、生理所影响,还能直接单就事件进行分析,得出准确结果。但是,如今多项证据都指出AI也会产生“偏见”(AI bias),不像外界认为的那样客观真实,这即是上文提及的“AI偏误/算法偏误”。
造成AI分析错误的三大因素
那么,AI为什么会出现错误呢?据媒体报导表示,主因有三:
1、偏误主要来自于AI的学习历程:倘若训练过程所提供的资料不完备,无法反映真实世界的丰富程度,就会造成AI日后出现偏误。例如有些少数民族,或是在某层面非常独特的个体,或是尚未被纳入数据库的元素。
2、AI不具思考能力:因为AI仅仅是做收集数据与呈现结果的工作,是永远不会自己思考的工具,因此若是资料中隐藏着人类的偏见,会让AI在针对大量数据做分析时,同时复制偏见。
3、AI无法针对抽象价值做精准决策:由于理性和平、公平正义、信任等抽象价值无法借由数学术语呈现,也没有办法做出最合适最精准的定义,因此当AI针对涉及抽象价值等数据来进行分析时,最后做出的决策常常不符人们期待。
话说到此,人们仍旧会继续研发出越来越精致化、跨领域的状况会越来越广泛的AI。只是,未来是否连AI不必要涉入的范畴,人们也会想方设法来让AI取代人力、人智呢?!
说不定未来连以AI组成的音乐会,都比真人的演奏会还要受到吹捧与欢迎,到时候,我们又该怎么分析、甚至是赞美AI灌注其中的情感呢?!当人完全被科技所取代后,难道我们还继续高喊老话--“科技永远取代不了人性与精神价值”,届时恐怕只换成不言而喻的“我们愿意被科技取代人性与精神价值”等定论,而人类的思维、情感将一文不值。