인공지능과 신뢰 개념: 정서적 신뢰를 넘어
Artificial Intelligence and the Concept of Trust: Beyond Affective Trust
유럽연합집행위원회 고급전문가그룹(HLEG)은 ‘신뢰할 수 있는 AI’를 AI 정책의 핵심으로 내세운 바 있다. 이들은 급격한 기술 변화의 시대 속에서 신뢰(trust)가 사회, 공동체, 경제, 그리고 지속 가능한 발전의 초석으로 남아 있어야 함을 강조한다. 그러나 라이언은 최근 논문에서 HLEG의 입장이 신뢰 개념을 모호하게 확장함으로써, 인간관계의 고유한 성격을 기술적 시스템에까지 부당하게 전이시킨다고 비판한다. 라이언은 AI 개발자가 책임의 소재를 AI 자체에 전가하는 식의 책임 회피가 일어날 가능성을 우려한다. 이러한 문제의식에서 라이언은 신뢰 개념 분석을 통해 AI는 신뢰의 대상이 될 수 없다고 주장한다. 즉, AI와의 관계는 정서적 신뢰 및 규범적 신뢰가 불가능하며 이성적 신뢰 차원에 머물 수밖에 없다는 것이다.
나는 이 글에서 라이언의 입장을 반박하여 AI와의 정서적 신뢰도 가능함을 주장한다. 나아가 정서적 신뢰를 넘어 AI와의 규범적 신뢰 구축을 위한 방향을 모색한다. 비록 기술적 측면에 의해 크게 좌우되긴 하지만, 나는 AI를 ‘도덕적인’ 판단 주체로 만들어가는 것은 유효한 가능성으로 남아 있다고 본다. 실질적으로는 AI와의 규범적인 신뢰를 만들어내는 것이 당면한 과제이다.
The purpose of this paper is to examine a recent debate in AI ethics, namely the argument for “reliable AI.” In particular, I challenge Ryan’s thesis, which represents an influential position in contemporary American philosophy. Ryan contends that AI should be regarded as an object of credit rather than an object of trust. This debate carries significant implications in light of the European Commission’s High-Level Expert Group (HLEG), which has identified “trustworthy AI” as a central policy objective. Yet the HLEG’s stance is controversial, as it risks diluting the concept of trust by inappropriately extending characteristics of uniquely human relationships to technical systems. Ryan argues that, for this reason, AI lacks the essential elements of genuine trust. Relations with AI, he maintains, remain confined to the realm of rational reliance and cannot extend to the emotional and normative dimensions of trust. This paper moves beyond such an essentialist conception of trust, seeking instead to explore under what conditions emotional and normative trust in AI might be possible, and what practical directions could guide the development of trust in AI systems.
새한철학회
전남대학교 강현정