万本电子书0元读

万本电子书0元读

顶部广告

人工智能安全电子书

人工智能的安全性是当今人们广泛关注的热话题。人们在享受人工智能技术给生活带来各种便利的同时,无时无刻不在担心人工智能技术可能会带来的各种风险。 本书就为读者答疑解惑,全方面、多视角地深剖析人工智能安全这一主题,内容丰富精彩。 本书由中国工程院院士方滨兴亲自主编,作者格局大、站位高,具有强烈的使命感、责任感,以全方位、多学科的研究方法,创性地诠释了人工智能安全主题,使本书具有创新性、前瞻性、实用性。

售       价:¥

纸质售价:¥73.70购买纸书

140人正在读 | 0人评论 6.2

作       者:方滨兴

出  版  社:电子工业出版社

出版时间:2020-06-01

字       数:38.0万

所属分类: 科技 > 计算机/网络 > 软件系统

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(0条)
  • 读书简介
  • 目录
  • 累计评论(0条)
本书在简要介绍人工智能发展历程、世界各国人工智能战略规划之后,重围绕人工智能安全主题,提出人工智能安全体系架构,讨论了人工智能助力安全、人工智能内生安全、人工智能衍生安全等相关内容,并深研究了人工智能安全伦理准则。本书还详细分析了人工智能行为体及其可能引发的安全问题,提出了人工智能保险箍的解决方案,并给出了人工智能行为体的安全评估与检测方法。本书*后还探讨了人工智能的前沿技术,以及人工智能安全的未来发展趋势。本书适合人工智能及安全领域的研究人员、管理人员以及广大爱好者阅读。<br/>【推荐语】<br/>人工智能的安全性是当今人们广泛关注的热话题。人们在享受人工智能技术给生活带来各种便利的同时,无时无刻不在担心人工智能技术可能会带来的各种风险。 本书就为读者答疑解惑,全方面、多视角地深剖析人工智能安全这一主题,内容丰富精彩。 本书由中国工程院院士方滨兴亲自主编,作者格局大、站位高,具有强烈的使命感、责任感,以全方位、多学科的研究方法,创性地诠释了人工智能安全主题,使本书具有创新性、前瞻性、实用性。<br/>【作者】<br/>方滨兴,中国工程院院士<br/>
目录展开

版权页

丛书编委会

前言

第1章 人工智能技术发展概述

1.1 人工智能的研究方向及起源

1.1.1 人工智能的研究方向

1.1.2 人工智能起源

1.2 人工智能的三次发展高峰

1.2.1 人工智能第一次发展高峰

1.2.2 人工智能第二次发展高峰

1.2.3 人工智能第三次发展高峰

1.3 人工智能的三个学术流派

1.3.1 符号主义

1.3.2 连接主义

1.3.3 行为主义

1.3.4 关于三个学术流派的评论

1.4 人工智能第三次发展高峰的技术推手

1.4.1 深度学习的贡献

1.4.2 软件框架成为人工智能应用的推手

1.4.3 解决不同软硬件的适配

1.4.4 算力大幅提升的贡献

1.4.5 大数据的贡献

1.4.6 移动互联网与传感器的贡献

1.5 人工智能带来的巨大冲击

1.5.1 人工智能对经济的冲击

1.5.2 人工智能对社会的冲击

1.5.3 人工智能对人类思维的冲击

1.5.4 人工智能对教育与就业的影响

1.5.5 人工智能对隐私的冲击

1.6 本章小结

参考文献

第2章 世界各国人工智能发展战略规划

2.1 美国人工智能发展战略

2.1.1 美国人工智能发展职能机构

2.1.2 美国人工智能战略规划

2.1.3 美国人工智能发展计划

2.1.4 美国人工智能监管政策

2.2 欧盟及英国人工智能发展战略

2.2.1 欧盟及英国的人工智能战略

2.2.2 欧盟人工智能发展计划

2.2.3 欧盟及英国的人工智能伦理原则

2.2.4 欧盟及英国人工智能立法及监管

2.3 其他一些国家人工智能发展战略

2.3.1 日本人工智能发展战略

2.3.2 俄罗斯人工智能发展战略

2.3.3 韩国、新加坡、加拿大、印度等国的人工智能战略

2.4 中国人工智能发展战略

2.4.1 中国人工智能发展的总体要求

2.4.2 中国人工智能发展的主要任务

2.4.3 中国人工智能产业发展的资源配置

2.4.4 中国人工智能发展的保障措施

2.4.5 中国人工智能发展的组织保障

2.4.6 中国人工智能人才培养政策

2.5 国内外人工智能标准研究

2.5.1 国际人工智能标准研究

2.5.2 中国人工智能标准研究

2.6 本章小结

参考文献

第3章 人工智能安全概述

3.1 人工智能与安全的辩证关系

3.2 人工智能安全体系架构与分类

3.2.1 人工智能安全体系架构

3.2.2 人工智能助力安全

3.2.3 人工智能内生安全

3.2.4 人工智能衍生安全

3.3 人工智能安全所处位置及外部关联

3.3.1 人工智能安全性、可靠性和可控性的关系

3.3.2 人工智能安全与法律、政策和标准的关系

3.3.3 人工智能安全与伦理之间的关系

3.3.4 人工智能安全评测与防控

3.4 本章小结

参考文献

第4章 人工智能助力安全

4.1 人工智能助力安全概述

4.2 人工智能助力防御

4.2.1 物理智能安防监控

4.2.2 军用机器人

4.2.3 智能入侵检测

4.2.4 恶意代码检测与分类

4.2.5 基于知识图谱的威胁猎杀

4.2.6 用户实体行为分析

4.2.7 垃圾邮件检测

4.3 人工智能助力攻击

4.3.1 自动化网络攻击

4.3.2 助力网络攻击,提升网络攻击效率

4.3.3 助力有害信息的传播

4.3.4 助力虚假信息内容的制作

4.3.5 智能恶意代码

4.3.6 神经网络后门

4.3.7 对抗机器学习

4.3.8 智能工具被用于恶意攻击

4.3.9 助力自主武器研发

4.4 本章小结

参考文献

第5章 人工智能的内生安全

5.1 数据安全

5.1.1 数据集质量影响人工智能内生安全

5.1.2 数据投毒可人为导致人工智能算法出错

5.1.3 对抗样本成为人工智能内生安全的新关注点

5.2 框架安全

5.3 算法安全

5.3.1 算法的可解释性

5.3.2 对抗样本体现出人工智能算法缺乏可解释性

5.4 模型安全

5.4.1 模型存储和管理的安全

5.4.2 开源模型被攻击

5.5 运行安全

5.5.1 客观原因导致的运行安全问题

5.5.2 主观原因导致的运行安全问题

5.6 本章小结

参考文献

第6章 人工智能衍生安全问题

6.1 人工智能系统失误而引发的安全事故

6.1.1 自动驾驶汽车失效

6.1.2 智能机器人失效

6.1.3 智能音箱失效

6.1.4 人工智能系统“失控”

6.1.5 会话人工智能的偏激言论

6.1.6 医疗人工智能的危险治疗意见

6.2 人工智能武器研发可能引发国际军备竞赛

6.2.1 各国人工智能武器化发展情况

6.2.2 人工智能武器军备竞赛带来的风险

6.3 人们对人工智能技术失控的担忧

6.4 人工智能行为体失控三要素

6.4.1 人工智能行为体具有行为能力以及破坏力

6.4.2 人工智能行为体具有不可解释的决策能力

6.4.3 人工智能行为体具有进化能力,可进化成自主系统

6.5 预防人工智能技术失控的举措

6.5.1 人机协作国际规范

6.5.2 阿西洛马人工智能原则

6.5.3 自我终结机制防范系统性失控风险

6.6 本章小结

参考文献

第7章 人工智能行为体

7.1 人工智能行为体的定义

7.2 人工智能行为体类型1——传统型

7.2.1 工业机器人

7.2.2 专用服务机器人

7.2.3 家用型机器人

7.3 人工智能行为体类型2——自动驾驶的交通工具

7.3.1 自动驾驶简介

7.3.2 自动驾驶汽车

7.3.3 人工智能无人机

7.3.4 无人驾驶船舶

7.4 人工智能行为体类型3——人工智能武器

7.4.1 人工智能武器简介

7.4.2 “杀人蜂”武器

7.4.3 炮塔型AI战斗机器人

7.4.4 人形战斗机器人

7.5 人工智能行为体类型4——类人机器人

7.5.1 Jules机器人

7.5.2 Bina48机器人

7.5.3 Sophia机器人

7.6 人工智能行为体的特性

7.6.1 人工智能行为体的移动特性

7.6.2 人工智能行为体的决策特性

7.6.3 人工智能行为体的自主特性

7.7 本章小结

参考文献

第8章 人工智能行为体保险箍

8.1 体系架构

8.2 基本功能

8.2.1 远程控制组件

8.2.2 能源控制组件

8.2.3 宿主交互组件

8.2.4 数据记录组件

8.3 安全机制

8.3.1 设备安全

8.3.2 数据安全

8.3.3 运行安全

8.4 安全围栏

8.4.1 工作过程

8.4.2 移动范围限制

8.4.3 速度与距离监控

8.4.4 输出功率与力约束

8.4.5 安全策略

8.5 增强功能

8.5.1 内置传感器

8.5.2 人的识别

8.5.3 “黑AIA”识别

8.6 防控中心

8.6.1 态势感知

8.6.2 指挥控制

8.6.3 应急处置

8.6.4 专家研判

8.7 生态环境

8.7.1 准入制度

8.7.2 标准规范

8.7.3 生态基础

8.8 本章小结

参考文献

第9章 人工智能行为体的安全评估与检测

9.1 人工智能行为体的安全管理概述

9.1.1 从术语的角度感受个人助理机器人的安全要素

9.1.2 个人助理机器人的风险评估要求

9.1.3 个人助理机器人的安全要求

9.1.4 个人助理机器人的功能安全

9.2 人工智能行为体安全评估和检测的目标

9.2.1 动能安全:对AIA动能的评估

9.2.2 决策安全:对决策系统安全的评估

9.2.3 自主安全:对AIA自主能力失控风险的评估

9.3 人工智能行为体安全评估的方法与指标

9.3.1 动能安全评估

9.3.2 决策安全评估

9.3.3 自主安全评估

9.3.4 安全评估过程

9.4 人工智能行为体检测能力与检测方法

9.4.1 针对AIA动能的检测方法

9.4.2 针对AIA决策机制的检测方法

9.4.3 针对AIA自主能力的检测方法

9.5 人工智能行为体的检测流程

9.5.1 针对AIA动能的检测流程

9.5.2 针对AIA决策机制的检测流程

9.5.3 针对AIA自主能力的检测流程

9.6 本章小结

参考文献

第10章 人工智能安全伦理准则

10.1 人工智能技术引发的伦理问题

10.1.1 人权问题

10.1.2 伦理地位问题

10.1.3 责任伦理问题

10.1.4 风险问题

10.2 人工智能技术发展的伦理准则

10.2.1 各国政府及社团组织关于人工智能技术发展的伦理准则

10.2.2 国际组织关于人工智能技术发展的伦理准则

10.2.3 企业和高等院校关于人工智能技术发展的伦理准则

10.3 人工智能行为体的伦理决策

10.3.1 人工智能行为体的伦理决策能力

10.3.2 人工智能行为体的伦理决策设计

10.3.3 人工智能行为体的伦理决策考量

10.4 人工智能行为体的责任归咎

10.4.1 责任主体

10.4.2 责任分配

10.4.3 无人驾驶汽车的责任追究

10.5 本章小结

参考文献

第11章 人工智能前沿技术

11.1 学术前沿

11.1.1 强化学习

11.1.2 迁移学习

11.1.3 联邦学习

11.1.4 分布式机器学习

11.1.5 表示学习

11.1.6 元学习

11.1.7 可解释的人工智能

11.1.8 对抗训练

11.1.9 人工智能芯片

11.1.10 技术前沿安全挑战

11.2 应用前沿

11.2.1 计算机视觉

11.2.2 自然语言处理

11.2.3 智能语音

11.2.4 智能驾驶

11.2.5 拟人和仿生

11.2.6 智能攻防

11.2.7 应用前沿安全挑战

11.3 交叉领域

11.3.1 人工智能与互联网

11.3.2 人工智能与工业互联网

11.3.3 人工智能与医学生物

11.3.4 人工智能与军事

11.3.5 人工智能与商业模式

11.3.6 人工智能与人文社会

11.3.7 交叉领域安全挑战

11.4 本章小结

参考文献

第12章 人工智能安全的未来展望

12.1 人工智能内生安全的未来展望

12.1.1 数据是否会制约人工智能内生安全

12.1.2 对抗样本是否会出现在实际应用场景中

12.1.3 是否存在安全的智能模型

12.1.4 人工智能执行过程是否安全

12.2 人工智能衍生安全的未来展望

12.2.1 人工智能武器化

12.2.2 人工智能滥用导致安全隐患

12.2.3 人工智能是否会危害人类

12.3 人工智能安全相关的未来焦点

12.3.1 人工智能基础工具应注重自主可控

12.3.2 如何看待人工智能自主发明物的专利性问题

12.3.3 人工智能对人的影响

12.3.4 人工智能挑起的欲望

12.3.5 超人工智能是否会危害人类

12.4 人工智能的安全可控之路

12.4.1 建立保护人类的法律规范和规章制度

12.4.2 确立人类优先与安全优先的原则

12.4.3 谨慎承认智能机器人的法律主体资格

12.4.4 充分尊重社会公众的知情权

12.4.5 人工智能的安全评估与检测

12.4.6 人工智能安全可控需要社会各界共同的努力

12.5 本章小结

参考文献

反侵权盗版声明

累计评论(0条) 0个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部