主页 > 知识库 > AI隐患重重之下人工智能应该如何发展?

AI隐患重重之下人工智能应该如何发展?

热门标签:梅县地图标注 珠海电销外呼系统供应商 郑州营销电销机器人加盟 江西防封电销卡办理靠谱 海州区百应电话机器人市场前景 德州电话外呼系统公司 百度地图标注后怎么保存 西宁语音外呼系统业务 乐迪电话机器人没办法定位

现在,人工智能的飞速发展贯穿着整个科技圈。无处不见的人工智能产品多到数不完,例如:无人驾驶、智能音箱、智能工业、智慧交通、AlphaGo等等。我们在享受高科技为我们带来乐趣的同时,也感受到了科技脚步的快速迈前。它无形,然而它又在生活之中不在。



国内科技巨头的带领下,一批新兴的聚焦于人工智能垂直领域的初创企业正在蓬勃发展,与此同时,人工智能带来的安全隐患与道德争议,也让各界对AI治理更加重视。新兴技术的商业化之路,需要建立在人为道德的制约之下,要时刻保持警醒,不能逾越。近来,AI换脸技术应用于明星影视剧中引起热议,人脸识别技术已经得到普遍应用,诸如上班打卡、刷脸购物、支付、手机解锁、抓交通违章等场景,拥有大量的用户群体。假如有人利用AI 换脸技术在这些领域弄虚作假,人脸识别又无法辨识真伪的话,那么个人隐私信息、财产等都会被盗,后果难以想象。

隐私问题是数据资源开发利用中的主要威胁之一,智能系统掌握了个人的大量信息,这些数据如果使用得当,可以提升人类的生活质量,但如果出于商业目的非法使用某些私人信息,就会造成数据泄露、隐私侵犯。去年,科技部公布了6张行政罚单,其中涉及基因隐私问题,公众对于基因隐私的担忧愈加严重。虽然国内正在推进电子病历等医疗大数据的科研应用,但仍存在数据使用的安全规范和法律保障不够等问题。


人工智能发展带来的安全隐患与道德争议,包括数据泄露、算法偏见、AI技术被滥用、安全隐患、法规不完善等问题。例如AI技术被滥用引发安全威胁。智能化网络攻击软件具备一定的自我学习能力,可模仿系统中的用户行为,并不断改变方法,以实现长时间停留在计算机系统中的目的,黑客则可以通过人工智能发起网络攻击,引发安全威胁。例如不法分子利用人工智能电视的各种安全隐患进行:远程控制电视,远程安装恶意软件,远程监控家庭等,造成用户隐私泄露或财产损失。

目前的人工智能系统目前还不够成熟,技术缺陷导致工作异常,可能出现安全隐患。近年来已有多起安全事故发生,Waymo无人驾驶汽车事故、Uber无人驾驶汽车撞死了行人、特斯拉车祸等让大家对无人驾驶的安全性打上了问号。AI医疗领域,在图像诊断等领域以实用化为目标的开发正不断推进。如果配备疾病识别AI的医疗设备投入使用,有望通过AI分析大量的医疗图像,从而更易发现
病变部位。


人工智能的影响普及全球,然而目前还没有任何实质的政策或措施去制定能使人工智能的潜力最大化并管理其风险的治理机制。这并不是因为政府认为人工智能的治理不重要,政府和企业在实际应用中所收集的数据如若被不当地处理或操纵,则会引发比以往数据隐私丑闻更大的风险,以及政府和企业尚未内化的声誉风险。因此,要防止大数据和人工智能的滥用和失控,应该从意识形态开始建立科学的数据价值观体系。



除了从技术安全角度研究确保AI安全的可行技术方法和手段外,还需要从伦理层面为AI安全提供引导和约束,以确保“AI向善”。伦理规范需要在公司、行业、国家层面就人工智能伦理原则和框架达成共识并落实到人工智能研发应用中,因为在技术加速、法律滞后的趋势下,需要更多依靠伦理规则来发挥事前的引导和规范作用,来确保AI向善。同时,社会也亟待法律规范的制定,从具体的行业出发对自动驾驶、无人机、医疗诊断、机器人等具体的人工智能应用进行监管,以实现鼓励创新与保障安全的平衡。国际标准、规则的制定可以确保人工智能的研发应用符合伦理、国际法等共同性要求。


未来的人工智能的发展已经有迹可循,有约可守。在一个开放的生态系统之下,把科技、大局观、机构和学术统一起来,坚持一个整体原则,共同创建维护稳定的发展秩序,建立积极向上的生态体系。科技是第一生产力,科技为我们美好的生活添色绘彩,我们再享受科技带来的便利的同时,让我们时刻保持负责的态度去迎接未来美好的生活。

标签:赣州 阜阳 钦州 拉萨 温州 无锡 恩施 盘锦

巨人网络通讯声明:本文标题《AI隐患重重之下人工智能应该如何发展?》,本文关键词  隐患,重重,之下,人工智能,;如发现本文内容存在版权问题,烦请提供相关信息告之我们,我们将及时沟通与处理。本站内容系统采集于网络,涉及言论、版权与本站无关。
  • 相关文章
  • 下面列出与本文章《AI隐患重重之下人工智能应该如何发展?》相关的同类信息!
  • 本页收集关于AI隐患重重之下人工智能应该如何发展?的相关信息资讯供网民参考!
  • 收缩
    • 微信客服
    • 微信二维码
    • 电话咨询

    • 400-1100-266