티스토리 뷰
먼저 디지털 윤리 vs 인공지능 윤리입니다. 디지털 윤리는 사용자 책임을 중심으로 역기능 대응에 대한 측면을 강조하며 인공지능 윤리는 인공지능 자체나 인공지능 제작자에 대한 책임을 강조한다는 점에서 차이가 있습니다. 아시모프의 로봇공학 3원칙을 알아보겠습니다. 0원칙 : 로봇은 인류(Humanity)에 해를 끼쳐서도 안되고, 위험에 처한 인류를 방관해서도 안됩니다. 1원칙 : 로봇은 인간(Ahuman being) 에게 해를 주어서는 안 됩니다. 그리고 위험에 처한 사람을 구경만 해서는 안됩니다. 로봇에 인간의 개념, 인간의 위험 판별 방법은 어떻게 입력할 수 있습니까? 2원칙 : 제1원칙에 위반되지 않는 한 로봇은 인간의 명령에 복종해야 합니다. 인간이 말한 부분 중에 어느 부분이 명령이고, 어느 부분이 장난일까? 군사용 로봇일까? 인간적으로 판단해서 해를 끼치는 1원칙 위반, 적은 누구일까? 3원칙 : 제1원칙과 제2원칙에 위배되지 않는 한 로봇은 로봇 자신을 보호해야(Protection) 한다는 것입니다.
로봇윤리 5원칙, 아실로마 인공지능 23원칙
먼저 로봇윤리 5원칙을 살펴보겠습니다. 1) 로봇은 인간을 죽이거나 해칠 목적으로, 즉 무기로 설계되어서는 안 되며 다만 국가안보를 위한 것은 제외합니다. 로봇에서 발생한 문제에 대해서는 인간이 법적 책임을 져야 합니다. 프라이버시 보호 뿐만이 아니라 프라이버시를 포함한 현존 하는 법규범에 합치하도록 설계·운용하고 있습니다. 3) 로봇은 안전과 보안 보장에 적합하도록 설계되어야 합니다. 로봇은 지능이나 감정을 가질 수 있는 디자인을 할 수 있으나, 사람으로 하여금(특히 심신 미약자에게) 착각이나 환상을 일으키도록 설계되거나 사용해서는 안 된다는 점에서 이런 원칙도 있구나 하고 신기했습니다. 모든 로봇에 대해(그 관리와 사용에 대해) 법적 책임을 지는 사람이 명확해야 합니다. 결론은 개발자의 책임을 강조한 원칙입니다. 다음은 아실로마 인공지능(AI) 23원칙입니다. 1번 ~ 5번은 연구 관련이슈입니다. 1번. 연구 목표: 인공지능 연구의 목표는 믿을 수 없는 지능이 아니라 인간에게 유익한 지능을 만들어 내는 것이라는 점에서 이 원칙은 참 좋은 것 같다는 생각이 들었습니다. 2번. 연구비 지원: 인공지능에 대한 투자에는 다음과 같이 컴퓨터 과학, 경제, 법, 윤리 및 사회 연구 등의 어려운 질문들을 포함하여 유익한 사용을 보장하기 위한 연구를 위한 기금이 필요합니다. 3번, 과학-정책 관계 : 인공지능 연구자와 정책 입안자 간에 건설적이고 건전한 교류가 있어야 합니다. 4번, 연구 문화: 인공지능 연구자와 개발자의 협력, 신뢰, 투명성 문화가 조성되어야 합니다. 5번. 경쟁 회피: 인공지능 시스템을 개발하는 팀은 안전기준에 대한 질 낮은 해결책을 피하기 위해 적극적으로 협력해야 합니다. 6번 ~ 18번은 윤리와 가치에 관한 문제입니다. 6번, 안전 : 인공지능 시스템은 작동 수명 전반에 걸쳐 안전하고 안정적이어야 하며, 적용 가능하고 가능한 검증을 할 수 있어야 합니다. 7번. 오류 투명성: 인공지능 시스템이 손상을 줄 경우 그 이유를 확인할 수 있어야 합니다. 8번. 사법의 투명성: 사법제도의 의사결정에 자율시스템이 개입된 경우 권한 있는 인간 기관이 감사하고 그에 따라 충분한 설명을 제공해야 합니다. 9번. 책임성: 첨단 인공지능 시스템의 설계자와 제조자는 인공지능의 사용, 오용 및 행동에 도덕적 영향을 미치는 이해관계자이며, 그에 따른 책임과 기회가 주어집니다. 10번. 가치의 준수: 고도의 자율적인 인공지능 시스템은 그것이 작동하는 동안 목표와 행동이 인간의 가치와 일치하도록 설계되어야 합니다. 11번. 인간의 가치: 인공지능 시스템은 인간의 존엄성, 권리, 자유 및 문화 다양성의 이상에 적합하도록 설계되고 운영되어야 합니다. 12번, 개인정보 보호: 인공지능 시스템이 개인정보 데이터를 분석하고 활용할 수 있는 권한을 부여받은 경우, 사람들은 그 데이터에 접근하고 관리하며 제어할 수 있는 권리를 가져야 합니다. 13번. 자유와 사생활: 개인정보에 인공지능을 적용하더라도 사람들의 실제 또는 스스로 인지할 자유를 부당하게 침해해서는 안 됩니다. 14번. 이익 공유: 인공지능 기술은 최대한 많은 사람들에게 혜택을 주고 역량을 강화해야 합니다. 15번. 공동의 번영: 인공지능으로 만들어진 경제적 번영은 인류의 모든 혜택(이익)이 돌아가도록 공유되어야 합니다. 16번. 인간 통제: 인간은 인간이 선택한 목표를 이루기 위해 인공지능 시스템에 의사결정을 위임할지 여부와 방법에 대해 선택할 수 있어야 합니다. 17번. 사회 전복 방지: 고도화된 인공지능 시스템을 통제함으로써 생기는 힘은 건강한 사회를 지향하는 사회적, 시민적 절차를 뒤집는 것이 아니라 존중하고 개선해야 합니다. 치명적인 인공지능 무기에 해당하지만 군비경쟁은 피해야 한다고 나와 있는데, 참 세세하게 원칙이 짜여 있는 것 같습니다. 19번 ~ 23번은 장기적인 문제입니다. 19번. 능력의 경계: 일치된 합의가 없는 상태에서 미래 인공지능 능력의 상한선에 대한 강력한 가정은 삼가야 합니다. 20번. 중요성: 고도화된 인공지능은 지구 생명 역사에 중대한 변화를 가져와 그에 상응하는 관심과 자원을 계획하고 적절히 관리해야 합니다. 21번. 위험 요소: 인공지능 시스템이 초래할 위험, 특히 치명적이고 실존적인 위험은 예상되는 영향에 맞게 계획을 세우고 대비하여 위험을 완화하기 위한 노력을 기울여야 합니다. 22번. 반복적인 자기 개선: 인공지능 시스템은 스스로 발전하거나 자기 복제를 반복할 수 있도록 설계하기 때문에 양적, 질적으로 급격하게 증가할 수 있습니다. 따라서 엄격한 안전 및 통제 조치가 뒤따라야 합니다. 23번. 공동의 선: 초지능은 널리 공유되는 윤리적 이상을 위해 발전해야 하며, 하나의 국가나 조직이 아니라 모든 인류의 이익을 위해 개발되어야 한다고 하는데, 이 원칙들이 잘 지켜지면 인류에게 큰 도움이 되는 대단한 인공지능이 개발될 것 같습니다.
지능정보사회
다음은 지능정보사회윤리에 관한 가이드라인, 서울PACT(Seoul PACT)을 살펴보겠습니다. 첫째, 공공성(Publicness) : 지능정보기술은 모든 인류의 이익을 위해 공유합니다. 둘째, 책무성(Accountability): 특정 활동이나 결과에 대해 설명·측정할 수 있으며, 책임 있는 상황이나 영역·책임 분배를 명확히 하고, 안전에 관한 통제 장치의 설치 등 사회적 의무를 충실히 합니다. 셋째, 통제성(Controllability) : 인간의 제어 가능성과 오작동에 대한 대비를 사전에 미리 해야 합니다. 넷째, 투명성(Transparency) : 이용자, 소비자, 시민 등의 의견을 반영하여 예상되는 위험 정보를 공개하고 공유합니다. 다음은 지능정보사회 윤리헌장을 살펴보겠습니다. 전문 3문장 : 인간의 창의와 혁신을 기반으로 하는 4차 산업혁명과 그에 따른 지능정보사회는 모든 사람들에게 불가피한 생활환경으로 자리 잡아가고 있습니다. 인공지능, 로봇 등 지능정보기술 기술은 사회 전 분야의 융복합 과정을 통해 경제적 도약과 사회문제 해결에 새로운 기회를 제공하고 있지만, 의도하지 않은 부작용에 대한 우려도 나타나고 있습니다. 그래서 우리는 지속 가능한 상생의 가치를 구현하며, 안전하고 신뢰할 수 있는 지능정보사회를 지향하여 다음과 같은 결의를 다집니다. 본문 6 문장 : 1) 지능정보사회는 인간의 존엄과 안전을 지키고 인류 보편적 가치를 실현하는 방향으로 발전해야 합니다. 2) 지능정보사회에서 이루어지는 성과와 혜택은 소수에 치우치기보다 모두에게 공유되어야 합니다. 3) 지능정보사회에서 기술, 제품 및 서비스를 개발, 공급할 경우 오동작과 위험상황에 대한 제어 기능을 제공해야 하며, 그 사회적 책임을 다해야 합니다. 4) 지능정보기술을 활용해 이뤄진 자동화된 결정과 처리과정은 필요시 설명 가능해야 하며, 사회적 편견과 차별, 감춰진 기능이 없어야 합니다. 5) 지능정보사회의 가치를 논의하고 문제를 해결하기 위해 우리는 공론의 장에 참여하고 열린 마음으로 협의하는 문화를 조성해야 합니다. 6) 지능정보사회의 지속 가능한 발전을 위해 우리는 사회변화에 따른 디지털 시민성을 갖추고 역량을 강화하도록 노력해야 합니다.
'책' 카테고리의 다른 글
다산의 마지막 습관 (0) | 2020.12.29 |
---|---|
인공지능 윤리 (0) | 2020.12.27 |
정보 보안 사고에 대해라는 책을 읽었습니다. (0) | 2020.12.26 |
50, 우주를 알아야 할 시간 (이광식) (0) | 2020.12.22 |
마음이 마음대로 안 되는 사람들을 위한 심리학 (폴커 키츠, 마누엘 투슈) (0) | 2020.12.21 |