止天戈提示您:看后求收藏(天书网www.tsms517.com),接着再看更方便。
会场里此起彼伏的私语声逐渐汇聚成热烈的讨论。
研究军事伦理的林教授率先打破沉默,发言道:“这个问题触及了人机融合的核心矛盾。我认为决策权必须牢牢掌握在人类手中。
AI的算法再精密,也无法替代人类对战争伦理、政治后果的综合考量。
设想一下,如果AI为追求战术最优,建议对平民区进行无差别打击,难道我们要默许机器突破道德底线吗?”
“但完全否定AI的决策价值是否太过保守?”
专攻人工智能的周教授推了推眼镜,眼中闪烁着思辨的光芒,讲道:“现代海战瞬息万变,人类的生理极限注定无法与AI的运算速度抗衡。
去年的兵棋推演中,AI指挥的舰队在复杂电磁环境下,决策效率比人类高出70%。
或许可以设定权限阶梯——常规战术由AI自主执行,涉及平民、核武使用等重大决策,则强制触发人类复核机制。”
“权限阶梯的设想看似合理,实则存在巨大漏洞。”