티스토리 뷰

인공지능 윤리

격한행복 2020. 12. 27. 12:08

안녕하세요! 오늘 인공지능 윤리에 대해 알아보겠습니다!

 

인공지능 윤리

 

인공지능 윤리

4차 산업혁명과 인공지능의 상관관계에 대해 알아보겠습니다. 먼저 4차 산업혁명에 중요한 두 가지 기술은 정보기술(IT), 통신기술(CT) 정보화 기술 중 지능형 기술이 4차 산업혁명의 힘입니다. 인공지능으로 4차 산업혁명이 일어나고 사회가 바뀔 것으로 기대하고 있습니다. 일본은 지혜 사회, 한국은 지능 정보화 사회라고 불립니다. 인공지능의 활용 분야를 알아보겠습니다. 많이 들어보셨을 자율주행차가 있고, 사람과 대화하면서 사람의 감정을 읽을 수 있는 쳇봇이 있습니다. 주로 산업용(기계와 접촉하여 로봇이 됨) 로봇 어드바이저(주로 의사, 변호사 등 일이 끝나는 단어의 직업을 대신합니다. 그들이 해야 하는 반복 업무를 대신해줍니다.), 휴머노이드(인간과 같은 존재입니다. 아직 시간이 좀 걸릴 것 같습니다.) 등이 있습니다. 인공지능이 사회 전반(사회구조 문제, 소득분배 문제, 실업 문제 등)으로 점차 확산될 것으로 예상됩니다.

인공지능 활용으로 인한 윤리적 문제는?

인공지능의 활용으로 인한 윤리적 문제 또한 빼놓을 수 없습니다. 그 문제에 대해 알아보겠습니다. 먼저 자율주행차가 사고를 내면 책임은 누가 질 것이냐입니다. 또하 소셜 로봇은 배우자 로봇이 있는 경우 개인정보가 노출되면 사생활 침해 문제가 발생하게 됩니다. 실제로 중국과 일본에서는 배우자 로봇을 실제 부부로 인정하라는 주장이 제기되고 있어서 이 논란은 쉽게 잠재워지지 않을 것 같습니다. 또한 전문가(회계, 법률, 의학 등)로서 인공지능이 활동했을 때 생기는 실수나 고의적인 사고에 대한 대책이 심각하다는 점입니다. 이 점은 자율주행차의 사고와 비슷한 논점인 것 같습니다. 이에 더불어서 인간 사이에 인공지능이 깊숙이 들어가 사생활 침해, 개인정보 유출, 중독 문제, 사고로 인한 책임 문제, 고의 해킹에 의한 사고 등의 문제 발생이 우려되는 점입니다. 인공지능 윤리를 미리 준비해야 하는 이유는 무엇인지 알아보겠습니다. 어떤 사람들은 '윤리'나 '법'은 마지막에 조치해야 한다고 말합니다. 경제활동 이후 문제가 발생하면 그것을 사회적으로 제어하는 것이라는 주장을 말하기도 했습니다. 하지만 앞으로 인공지능에 의한 여러가지 제품이나 서비스는 글로벌하게 진행될 것으로 보입니다. 그 예로 IBM 왓슨의 암 진단을 들 수 있습니다. 이러한 기술이 한국에 도입될 때 프라이버시 문제, 개인정보 침해, 사고 시 책임에 대해 충분히 검증된 서비스인지를 묻는 것이 윤리입니다. NSTC 보고서 중에서는 인공지능에 대해 믿냐는 질문을 하면서 신뢰할 수 있도록 하기 위해서는 특정 데이터 셋에 관한 테스트를 거친 것만 사용할 수 있도록 해야 한다고 합니다. 앞으로 인공지능 산업은 윤리 기준을 충족하지 못하면 글로벌한 성장을 할 수 없을 것입니다. 전 세계적으로 인공지능 서비스는 '윤리'가 하나의 표준이 되는데, 이걸 윤리의 표준화라고 합니다. 윤리는 새로운 먹거리를 위한 글로벌 서비스를 위한 필요조건이라고 할 수 있습니다. 유럽에선 이미 배우자 로봇이 800만 원에 팔리지만 한국에선 윤리적 문제가 될 겁니다. 물론 문화 차이는 있지만, 글로벌 서비스화에 따라 점차 표준화될 가능성이 높습니다.

인공지능 윤리와 관련된 외국과 한국의 연구 현황

인공지능의 연구는 처음 19~40년대 로봇윤리에 대한 연구였습니다. 아시모프 3원칙이 세워지고, 본격적인 대화가 오간 것은 2011년 영국 옥스퍼드대 교수다.「인공 지능 윤리」에 대해 다룬 것이라고 하니 본격적으로 시작한 것은 10년 정도 됐다고 할 수 있을 것 같습니다. 현재는 2016년을 기반으로 인공지능 윤리에 대한 연구가 활발히 진행되고 있습니다. 미국에서는 백악관에서 인공지능 윤리 연구 개시, '아실로마 23원칙'을 발표했습니다. 일본에서는 총무성에서 인공지능 윤리에 관한 8가지 원칙을 제시하고 있습니다. 유럽(EU)에서는 로봇 기본법을 제시합니다. 국제 전기전자 학회(Ethically Aligned Design , IEEE)도 설립되어 있습니다. 우리나라 대한민국에서는 상업 통산 자원부 로봇 관련 시한 법을 제시하였고, 2018년 지능형 로봇 개정안이 통과(인공지능 로봇 연구)되었습니다. 또한 정보문화포럼 2016년부터 지능정보사회 윤리 분과를 통해 3년 연구(2017년 인공지능 윤리 가이드라인 발표하였고 2018년 6월 인공지능 윤리헌장을 선포하였습니다 한국은 외국에 비해 다소 3, 4년 느리지만 3년간은 진행됐습니다. 2018년 6월 발표된 지능정보사회 윤리헌장의 내용을 알아보겠습니다. 공공성 : 인류 전체를 위해 모든 기술에는 인간의 존엄과 안전에 대한 키워드를 가져가야 합니다. 책무성 : 기술을 사용하는 사람이 일정한 책임을 지는 것입니다. 책임성과 책무성의 차이는 책임성은 자신이 직접 한 행동에 대한 것이고, 책무성은 직접 관련이 없어도 포함되는 책임이라는 점 참고하시기 바랍니다. 설명 가능성 : 인공지능의 자율성, 스스로 결정하는 모든 것을 설명할 수 있어야 합니다. 예를 들어 속마개의 피부색 때문에 차별이 되지 않는다는 것을 설명해야 합니다. 통제 : 인공지능은 딥러닝을 일으키기 때문에 인공지능이 어떤 과정을 거쳐서 그런 결정을 내렸는지 모르는 경우가 많습니다. 따라서 인공지능은 인간이 제어할 수 있도록 만들어야 합니다. 토론 : 공론의 장 스토리텔링 기회를 많이 만들어야 합니다. 디지털 시민성 : 시민 전체가 AI를 사용할 만한 역량을 갖춰야 한다는 내용이 있는데, 이대로 되기까지는 아직 시간이 걸리지 않을까 생각합니다. 인공지능 윤리에 대한 견해들을 살펴보겠습니다. 윤리가 돈이 안되고 가장 가난한 학회라는 견해가 있습니다. 이와는 반대로 윤리적인 사람, 윤리적인 기업이 제일 건전하고 오래 갈 것이라는 견해도 있습니다. 윤리적인 사람, 기업이 가장 경제적일 수도 있고, 사회가 장기적으로 지속되기 위해서는 필수적인 요소라는 견해도 있습니다. 저는 아직 깊게 알지 못해서 좀 더 공부해봐야 할 것 같습니다.

오늘은 인공지능 윤리에 대해 알아보았습니다!

긴글 읽어주셔서 감사합니다.

반응형
댓글
최근에 올라온 글