2021-09-18《AI30人工智能落地的商业逻辑》读后感
发布网友
发布时间:2023-05-09 16:48
我来回答
共1个回答
热心网友
时间:2024-03-09 22:57
全书整体结构
本书中我得到的收获:
1、了解了一些基本的概念和基本的理念,如人工智能的发展历程:
再比如:AI的三个阶段AI分为三类:狭窄人工智能(Artificial Narrow Intelligence)、普遍人工智能(Artificial
General Intelligence)和超级人工智能(ArtificialSuper
Intelligence)。
2、数据和AI之间的关系:数据是AI的基础
当今社会已经不仅仅是AI的发展需要数据作为基础,越来越多的行业、领域都对数据给予了足够高度的重视,当然“数据”也受得起大家给予的重视——它确实能创造价值。但哪些数据,通过怎样的形式产生怎样的价值,是人们要面对的课题。
数据战略应该关注数据的整体生命周期,思考企业的数据从哪里来,有哪些作用,未来到哪里去。企业要更加关注自有数据的价值创新,建设自有数据的网络效应,将其货币化。并且,企业还要一手抓进攻性数据(商业分析),另一手抓防御性数据(安全性),双管齐下,避免数据泄漏。
成功的数据战略应该包含数据资产、数据治理、数据价值创造、人才储备等在内的总体计划,为未来的业务增长奠定基础,提供持续不断的数据动力。
3、涉及AI的讨论,必然会涉及的伦理讨论
欧盟提出了四条核心的伦理原则:第一,人类自治原则,保障人类在使用人工智能时充分、有效的自决权利,确保人类对人工智能系统工作程序的监管;第二,避免伤害原则,确保人工智能系统及使用环境的安全可靠,确保人工智能技术的稳健性,防止恶意利用;第三,公平原则,要求合理分配收益与成本,确保个人与团体不受偏见、歧视和侮辱;第四,可解释性原则,意味着程序透明,公开相关系统的功能与目的。
基于这四大原则,细化并扩展出实现可信人工智能的七条具体要求。未来基于这些原则和要求,各个场景会有配套的法律跟进,进而将人工智能发展纳入可控的轨道。欧盟的经验非常值得借鉴,共同的伦理准则是未来人工智能产业全球协作的基础,甚至关系到*军事的合作和信任。
就人工智能活动的具体执行方面,艾伦·图灵研究所针对人工智能研发提出“FAST”原则:即公平(fairness)、责任(accountability)、持续(sustainability)和透明(transparency)。
公平原则,指的是无性别、种族、群体歧视,在数据收集、数据分析、结果呈现上必须考虑无歧视,实现公平。公平原则既要从国家、民族等宏观处考虑,也应在产品与行业的微观处有所体现。责任原则,指的是我们正在进入分布式智能时代,要了解哪些任务和决策可以委托给人工智能,以及如何区分责任。1979年,德国学者汉斯·伦克(Hans
Lenk)第一次提出“责任伦理学”的概念,深化了科技伦理问题的探讨。除了自动驾驶领域的责任归属,诸如伴侣机器人、餐厅机器人、医疗机器人等各类机器人若发生意外,也应该有相应的责任归属。持续原则,指的是人工智能的产品要稳健、安全、可控制,系统在设计时要考虑到产品对人和社会的影响,使用过程可控。透明原则,指的是过程、原因、结果可解释、可追踪,既有利于查询追溯,也能方便迭代与修订。
最后,我喜欢作者直截了当地谈到“后续我们应该如何”,我更喜欢“认知悲观、行动积极”的风格。不论是AI还是对其他事情,我一直觉得即便认知是悲观的,也应该采取积极的行动去直面所有的可能!普通人更多的还是要考虑非重复性的工作、人工智能做不了的工作。当然对于从业AI的人来讲,除了了解基本的规律、基本的逻辑,行业发展趋势、商机等等以外,一直不能忘记的是“人工智能受人启发,由人创造,人工智能的价值观就是人类的价值观,需要采用‘以人为本’的原则来开发人工智能”。