實際上,在AI倫理上我們是強調人命的價值是不可以衡量的,但是面臨到重要關頭的時候,反而人類自己在做這一種取捨。所以我們要AI不能做這樣的選擇,人類自己卻率先做這個事情,這也是很有趣的。有時我也是在思考這個問題。也就是AI發展後,自己會變聰明,可以做很多事,我們是否在有些前提下,不要有有太多的限制,容許科技創新。