特的洞察力,远远超出了ai当前处理和评估的能力。”
再比如人工智能同样可能存在偏见问题。
“我们相信人工智能在设计时,是希望客观无偏的。但ai系统是基于它们被训练的数据集来做决策的,这可能导致固有偏见的问题。如果训练数据集中存在性别、种族、地域或学派的偏见,那么ai的决策同样会反映这些偏见。”
……
一篇文章洋洋洒洒写了近万字,列举了十条人工智能不可能替代人类评审,更是在最后进行了情绪饱满的升华。
“我们承认,身为人类,我们可能犯这样或者那样的错误,哪怕是科学奖的评审。人类不可能永远不犯错,但这种不完美才是人作为这个世界的主人的最大特点。
但人类最可贵的精神之一是我们所拥有着强大的纠错能力。当意识到错误时,我们会努力改正自己的错误。并让一切回到正常的轨道。而人工智能在争议出现时,责任和决策的归属变得模糊。
因此,我们在这里向公众呼吁:请保持科学评价的人性化,保护它免受无情算法的侵蚀。让我们共同维护科学探索的纯粹性和尊严,确保科学成就的评价仍然是以人类的智慧、直觉和伦理为基础。限制人工智能的
-->>(第6/10页)(本章未完,请点击下一页继续阅读)