华侨网,有态度的华人新闻网站!

帮助中心 广告联系

華僑時報 | 華僑網

热门关键词:  习近平  发顺丰  央行  詩詞  蓝狐
热门TAG标签:人工智能

“人工智能+” 理性正视挑战

来源:网络整理 作者:华侨时报 发布时间:2021-07-19
摘要:“人工智能+” 理性正视挑战---语音识别、文本识别、视频识别……数字经济时代,人工智能技术已走近你我身边,

  语音识别、文本识别、视频识别……数字经济时代,人工智能技术已走近你我身边,被视为经济增长的新引擎、国际竞争的新阵地和推动智慧社会建设的有效工具。而加快“人工智能+”产业融合、赋能更多行业应用落地,更成为社会各界共同的期待。

  然而,不久前在由中国人工智能学会主办的2020中国人工智能产业年会上,最新发布的报告指出,目前已成熟应用的人工智能技术仅为语音识别,机器学习、计算机视觉、自然语言处理、知识图谱、智能机器人等技术距离生长成熟尚需数年时间,而无人驾驶汽车在未来10年内都不太可能出现。

  从实验室走向大规模商用,人工智能还需要多久?尚存在哪些“堵点”“痛点”?在许多业内专家看来,正视人工智能尚存在的诸多挑战,对技术赋能抱有理性期待,方能让其回归技术本质,成为更多产业变革创新的动力源泉。

  算法不透明导致的不可解释

  2016年,谷歌人工智能系统AlphaGo击败世界围棋冠军李世石,令世人大为震动。依靠人工智能深度学习理论的突破,计算机可以模仿人类作出决策,然而,这仅基于大量的数据学习,而非因果或规则推理,整个决策过程仍是一个“黑箱”,人类难以理解,导致追责难。

  复旦大学计算机科学技术学院院长姜育刚举例,此前,美国IBM公司研发了人工智能系统“沃森”帮助医生进行诊疗决策。然而,许多医生很快发现在使用“沃森”时,系统给出了多个不安全、不正确的治疗意见,甚至在极端的诊断案例中,“沃森”给有出血症状的癌症病人开出了容易导致出血的药物,严重时可致患者死亡。然而,医生却并不知道为什么“沃森”给出了这样的意见。决策步骤的不可解释,带来诸多不确定性。

  近年来,人工智能应用于新药研发被寄予厚望。然而,算法的不可解释性却横亘在前。相关研发和监管部门需要清楚地知道药物开发中使用的算法,从而理解人工智能主导的决策背后的逻辑。如果不对监管实现算法透明化,人工智能将会是一个无法进行严谨的科学评价及验证的“黑匣子”。这可能会导致在药物审批过程中出现种种无法预料的问题,比如对人工智能“发现”的生物标记物的接受度不明。此外,对于智能政务、无人驾驶这样安全性要求极高的行业,人工智能的引入自然更为谨慎。

  “深度学习的算法和核心模型需要能够真正展开,让公众知晓它的机理模型”,上海人工智能研究院有限公司总经理宋海涛建议。中科院软件研究所研究员薛云志则指出,人工智能面向不同知识背景的用户,要能以简单、清晰的方式,对决策过程的根据和原因进行说明,并能对系统决策过程关键节点的数据加以追溯并能够审计,这在未来人工智能应用大规模落地时,是特别需要关注的特性,也是实施监管的必要。

  易受欺骗引发安全性质疑

  作为人工智能技术的“大热选手”,深度学习可以通过对大量已知样本的训练,制作自己的样本,这是深度学习的特点,同样也是痛点。

  京东人工智能研究院院长周伯文坦言,人工智能目前在面向产业化落地时,遇到的巨大挑战正是真实环境的开放边界和规则模糊,数据的“噪音”非常多,使得智能模型的部分结果和使用情况难以让人信赖。

  姜育刚指出,人工智能目前的智能判别模式存在缺陷,容易被对抗样本所欺骗。比如图像识别,在一张人像图片上加入一些非常少量的干扰,人为视觉看上去基本没有区别,但人工智能模型就会产生识别错误;再如自动驾驶,一张“限速80码”的交通标牌,加入一些干扰后,就可能被机器识别成“禁止通行”。显然,存在很大的安全隐患。

责任编辑:华侨时报