摘要:在機器智能領(lǐng)域,人工智能與智能增強兩大技術(shù)陣營在應替代人類還是增強人類上存有理念對立,并映射于法律。相對于計算機、網(wǎng)絡等智能增強技術(shù)以人為中心、以增強人類為目標,人工智能技術(shù)以機器為中心、以替代人類為目標,在技術(shù)上具有去人類化的屬性,此系人工智能諸多倫理困境與法律難題的產(chǎn)生根源。人工智能法律規(guī)制應當堅持以人為本,對人工智能前置性地施加局部替代人類、整體增強人類的價值負載,在人工智能不具有主體資格的前提下,圍繞人工智能以機器為中心的特性進行制度設(shè)計,弱化復雜的倫理困境與責任認定疑難,并保持與既定體系的接洽、交融。人工智能法律研究不應局限于法律范疇之內(nèi),在技術(shù)分析之外,還需要結(jié)合哲學、倫理學等學科的研究。
注:因版權(quán)方要求,不能公開全文,如需全文,請咨詢雜志社