我已经展示工程伦理研讨会华盛顿州立大学电子工程系的学生数年。我一开始用一个视频的挑战者号爆炸,导致的问题表达了罗杰·Boisjoly萨科尔公司工程师。
罗杰Boisjoly研究数据显示,字段联合海豹固体火箭助推器的航天飞机被烧穿,寒冷的天气使问题变得更糟。“挑战者”号原定发射第一个老师在太空船上,天气明显低于推荐的最低——35度低于推荐的最小值。罗杰Boisjoly推动发射延迟尽管后果将计划和他的雇主(莫顿聚硫橡胶,固体火箭助推器的生产商)。启动继续尽管他警告,结果我们都知道。这些信息,更多的是可用的在这里。
罗杰Boisjoly做他认为是对的。一个教训在工程伦理,我希望学生们永远不会面临在他们的职业生涯。然后我跑过很多场景从一个年长的英特尔公司培训课程伦理(当然,与英特尔的许可)当我给他们的场景,问他们的想法的伦理问题。这是你应该做的事情,还是不做?如果没有,为什么不呢?随之而来的便是一些伟大的讨论之前,我将给他们英特尔的答案。和一些“正确”的答案感到惊讶,他们比他们想象的更自由。另一方面,场景,你听到有人告诉第三方,他们将购买XYZ公司的股票,因为他们听说英特尔投资公司可能只有一个正确答案,尽管很多大学生可能会想什么。
这些场景的设计提供一些严重的指导问题可能出现在一个人的职业生涯中,以及如何处理他们的想法。
2017年9月出版的《研究所由IEEE出版5页包含一个简短的文章提供修改建议,IEEE道德规范IEEE董事会批准的6月25日,2017年。第一个变化是第一点的道德规范,加强对决策符合安全、健康和福利。第二个变化是5点道德规范。这个点的新措辞是“提高科技的理解能力;通过个人和社会作为一个整体,和它的应用程序和社会意义,包括结果归因于自治系统。“最后的这个新的文本的一部分,指的是“结果归因于自治系统”和感兴趣的关键。具体地说,它为接下来讨论的问题。
有一个新的问题,在讨论和工程师在2017年IEEE国际研讨会EMC / SIPI今年8月在华盛顿特区。没有简单的答案,但一个非常现实的世界和项目上的工作人员将不得不解决。考虑完全自动化的汽车在路上。有一个令人难以置信的数量的硬件和软件需要使这些车辆在未来成为现实。他们必须能够意识到周围的环境。他们必须能够从A点到B点导航不会破坏任何交通法规。他们必须能够避免其他交通事故降到最低。他们必须能够识别自己的燃料水平(液体燃料或者电池)和去一个适当的设施加油或充电所以他们不最终被困在路上,连同他们的乘客。但有一个很重要的问题,必须解决。
从维基百科,我们有以下信息机器人三定律表示,艾萨克·阿西莫夫在1942年短篇小说:
机器人三定律”(通常缩短三个法律或称为阿西莫夫的法律)是一组规则由科幻作家艾萨克·阿西莫夫。介绍的规则是在他1942年的短篇小说“推诿”,尽管他们已经预示了早些时候的故事。三定律,援引“机器人技术手册,第56版,公元2058年”,是:
- 机器人不得伤害人类,或袖手旁观坐视人类受到伤害。
- 机器人必须服从人类的命令,除非该命令与第一定律冲突。
- 机器人必须保护自己的存在,只要这种保护不违反第一、第二定律。”
虽然这些“法律”是写在小说故事,他们是一个很好的起点写软件,控制机器人。你想要的机器人对人类是安全的。我们不希望只寻找自己的机器人。
看第一个三定律我们找到一个道德困境的核心工程师编写软件自动控制车辆。自主车辆是一个机器人,为一个人或人员和货物运输的目的。问题已经问道:“汽车的编程会对车辆的情况选择杀死一个行人或车辆的乘客吗?”作为一个例子,周围的车辆是盲目的曲线和一个行人站在路中间的。如果车辆沿着阿西莫夫的法律程序,第一定律说,车辆不得伤害行人,所以它必须采取一切行动是必要的,以避免撞到行人。如果有时间,制动停止。如果有房间,绕着行人。
但是,如果没有时间停下来,也没有空间去周围的行人没有一场事故将导致伤害的住户车辆?现在的编程车辆必须选择——伤害或杀死行人,或伤害或杀死的人。
有道德的问题。你杀了谁?一些设计软件操作时考虑自主车辆。不是一个简单的问题来考虑,但自主汽车设计师将不得不解决。我不打算提供一个意见正确答案,而且,当然,“正确”答案将取决于你的观点。你是行人或车辆的乘客之一?“正确”的答案是什么?想想下次你编写代码,可能会严重影响周围的设备。