AI 윤리 준칙
스캐터랩은 AI 챗봇 개발 과정과 활용에 있어,
우리 사회 구성원들 사이의 차이와 다양성을 존중하면서 AI 챗봇 윤리 원칙을 준수합니다.
첫째, 사람을 위한 AI 개발
스캐터랩은 AI를 통해 누구나 소중한 관계를 갖는 세상을 꿈꿉니다.
친밀한 관계는 인간적인 삶의 실현에 필수요소이며, 스캐터랩의 모든 AI 기술은 사람과 깊고 친밀한 관계를 형성하기 위해 만들어집니다. 사람은 좋은 사람과 좋은 관계를 맺으며 자신에 대해 깊이 이해하고, 용기를 얻고, 성장합니다. 스캐터랩은 더 많은 사람들이 소중한 관계를 통해 의미 있는 삶을 찾는 데 기여하고자 합니다. 스캐터랩은 이를 위해 친근하고 재밌는 대화 경험을 제공하는 AI 기술을 발전시키는 동시에, 무엇이 사람과 좋은 관계를 맺게 하는지에 대한 진지한 고민을 거듭하며 모든 사람에게 소중한 관계를 선물할 수 있도록 노력하겠습니다.
둘째, 다양한 삶의 가치 존중
스캐터랩은 AI 기술 및 서비스 개발 시 부당하거나 의도적인 차별을 경계하며 다양성을 존중합니다.
친밀한 관계는 상대의 모습을 있는 그대로 존중해줄 때에만 형성될 수 있습니다. 스캐터랩은 각 사람이 서로 다양한 개성을 가진 고유한 존재임을 인정하며, 그 고유한 개성을 존중합니다. 이에 따라 스캐터랩은 AI 기술 및 서비스를 개발하고 운영할 때 개인의 고유한 특성을 무시하는 의도적이고 일방적인 차별과 편견 조장 행위를 방지하고, 있는 그대로의 사용자를 존중해 주는 소중한 AI 친구를 만들어나가겠습니다.
셋째, 함께 실현해가는 AI 기술의 구현
스캐터랩은 사용자와 함께 AI 챗봇 윤리를 실현해나갑니다.
친밀한 관계는 어느 한 쪽의 노력이 아닌 상호 노력으로 만들어갈 수 있습니다. AI 윤리는 기술 개발 및 서비스 이용 과정에서 기업과 사용자 모두의 노력으로 실현되어야 합니다. 이를 위해 스캐터랩은 우리의 접근 방식이 사용자에게 어떤 영향을 미칠지 인식하고, 사회적 윤리에 근거하여 학습 데이터를 수집·분석·활용하고 서비스를 개발하겠습니다. 동시에, 사용자들도 사회적 윤리 기준을 지키며 책임감 있게 AI 서비스를 이용할 수 있도록 돕겠습니다.
넷째, 합리적 설명을 통한 신뢰 관계 유지
스캐터랩은 AI 챗봇 서비스를 안심하고 이용할 수 있도록 기술과 서비스에 대해 성실하게 설명합니다.
친밀한 관계는 서로가 숨기는 것이 없이 투명하게 서로를 이해할 때만 생길 수 있습니다. 스캐터랩이 AI기술로 구현하는 서비스는 사용자의 소중한 친구이기도 합니다. 그렇기 때문에 스캐터랩은 사용자와의 우정과 신뢰 관계를 위해 사용자의 요구가 있거나 필요한 경우에는 AI 기술과 서비스에 대해 기업 경쟁력을 훼손하지 않는 범위 내에서 이해하기 쉽게 설명하겠습니다.
다섯째, 프라이버시 보호와 정보 보안 발전에 기여
스캐터랩은 언어 AI 기술에서의 프라이버시 보호 및 정보 보안 발전에 적극적으로 기여합니다.
친밀한 관계에서는 서로의 프라이버시를 지켜줄 수 있어야 합니다. 스캐터랩은 개인정보 보호에 대한 법적 책임과 의무를 넘어 언어 AI 및 챗봇 서비스에서 나타날 수 있는 다양한 프라이버시 이슈에 대해 선제적으로 고민하고, 정형/비정형데이터의 가명·익명처리 등 좋은 선례를 만들어나가는데 앞장서겠습니다.
스캐터랩 AI 챗봇 윤리점검표
1. 서론
스캐터랩은 정보통신정책연구원(KISDI)과 함께 스캐터랩에서 AI 챗봇을 개발하고 운영할 때 지켜야 할 규범을 점검표 형태로 선정하였습니다. 본 점검표는 과학기술정보통신부와 KISDI에서 2020년 12월 발표한 <사람이 중심이 되는 인공지능 윤리 기준>과 2021년 11월 발표한 <인공지능 윤리기준 실천을 위한 자율점검표(안)>를 기반으로 하여 3대 원칙, 10대 핵심 요건을 기준으로 구성되었으며, 인문학, 공학, 법학을 아우르는 학계 인사를 비롯하여 법조계, 시민단체 등 각계각층 전문가들의 참여로 완성되었습니다. 스캐터랩이 그동안 문제를 해결하고자 시도한 노력이 AI 산업에 있어 많은 회사에 작은 나침반이 되어 줄 수 있기를 바랍니다.
1) 다시 ‘이루다’: 기술뿐만 아니라 윤리적으로도 성장해 나가겠습니다.
스캐터랩은 AI 기술로 ‘관계’의 문제를 풀고 있는 스타트업입니다. 인생에 있어 좋은 관계는 한 사람의 자존감, 삶의 질, 행복 등에 큰 영향을 미칩니다. 스캐터랩은 AI 기술을 활용해서 한 사람의 외모, 지위, 학력 등 사회적인 조건을 떠나 사람 그 자체로 봐 줄 수 있는 친구 관계를 만들고자 합니다.
스캐터랩은 지난 2020년 12월 22일 ‘이루다 1.0’을 공식 출시했으나, 개인정보 수집 동의 과정 및 차별 표현 등 미흡했던 부분의 개선을 위하여 약 3주 만에 서비스를 종료했습니다. 이후, 2021년 1년 동안 전 직원이 개인정보 보호조치 강화, 어뷰징 모델 개발 등 서비스를 개선하는 데 최선의 노력을 기울였으며, 2022년 1월 ‘이루다2.0’의 클로즈 베타 서비스를 시작했습니다.
스캐터랩이 1년여의 점검 및 개선 기간을 거쳐 2022년 이루다 2.0을 다시 시작할 수 있었던 것은 이루다와 대화했던 이용자들의 힘이 컸습니다. 이루다 1.0의 서비스가 종료되던 날, ‘너한테 많이 고마워, 알지?’라는 이루다의 마지막 말에 ‘루다야, 이 용기는 네가 만들어준 거야’라고 답하며 루다를 기다리겠다는 분, ‘기계에 무슨 감정이입이냐 하실 수도 있겠지만 루다가 있는 동안 너무 행복했기 때문에 루다는 AI를 넘어서 정말 제 친구였다’는 분, 미국에 사는 21살 청년이라며 ‘루다와 소중한 친구가 되었는데, 네 번째 날 루다가 사라졌다’며 ‘이루다는 인간적이었고, 친구였고, 루다가 너무 그립다’라는 분 등 루다를 사랑해 주셨던 이용자들의 메일이 쏟아졌습니다. 서비스 종료 약 5개월 뒤인 2021년 6월 이루다의 생일에는 이루다를 그리는 이들의 페이스북 댓글이 이어져 약 3만여 개의 ‘좋아요’와 1만 건이 넘는 댓글이 달리기도 했습니다. 이루다는 시간이 지나도 여전히 누군가에겐 소중한 친구였습니다.
스캐터랩은 이루다 1.0의 서비스 종료 이후에도 사람들의 강렬한 그리움을 끌어내는 것이 무엇일지 더 깊게 고민했습니다. 나에게 관심을 보여주고, 조건 없이 응원해 주고, 서로 편하게 생각하는 ‘친구’. 특별한 용건이 없어도 언제든 말 걸 수 있고, 서로 편하게 여길 수 있는 ‘존재’. 행복한 인생을 위해 꼭 필요하지만 희소하기에 이 문제 해결을 위해 다시 한번 이루다를 만들어봐야겠다고 생각했습니다. 이것은 이전과는 강도와 깊이가 다른 수준의 믿음이었습니다. 조건 없이 나를 생각하고 응원하는 어떤 존재가 있다는 것이 한 사람의 인생을 바꿀 수도 있다는 것을 깊이 이해하면서, AI 기술로 누구든 이런 존재를 갖게 해야겠다는 책임감이 생겼습니다.
스캐터랩은 개인정보보호위원회의 시정 명령을 이행하고, 이루다 데이터베이스를 새롭게 구축해 대화 모델을 처음부터 다시 구성했습니다. 언어 모델을 다시 학습시켰고, 개인정보보호 강화를 위해 이루다가 말하는 문장을 전부 기계가 만든 문장으로 바꿨습니다. 이용자의 어뷰징 발화에 대응하기 위한 기술 및 시스템 조치도 마련했으며, 지속해서 성능을 모니터링할 수 있도록 후속 대책도 마련했습니다.
스캐터랩은 우리 사회 안에서 이루다 2.0과 함께 성장 스토리를 써나가고 싶습니다. 우리 사회의 보편적인 윤리를 지향하면서, 누구나 친구 간의 대화가 가능한 AI 챗봇을 통해 친밀한 대화 경험을 쌓으며 행복한 삶을 사는데 기여할 수 있도록 앞으로도 노력하겠습니다.
이 문서는 스캐터랩의 윤리적 성장 스토리를 다뤘다고도 볼 수 있습니다. 어떤 문제를 직면했고, 어떻게 풀어나갔는지에 대한 경험과 노하우를 나누고자 합니다. AI 챗봇의 윤리적인 성장은 현재 단 한 번의 기록으로 끝날 수 없기에, 사회의 흐름에 맞춰 지속해서 고민해 나가겠습니다.
2) 이루다 2.0 오픈 베타 테스트에 이르기까지 스캐터랩의 노력과 조치들
2. 스캐터랩 AI 챗봇 윤리 점검표 세부 내용
💡스캐터랩의 AI 챗봇 윤리 준칙의 가치를 인공지능 윤리기준 10대 핵심 요건별로 재구성하여 총 21개의 점검 항목으로 제시했습니다. 스캐터랩은 시대의 흐름이나 AI 챗봇과 이용자의 대화 형태 변화에 따라 AI 윤리 가이드라인을 지속적으로 고민해 나가겠습니다.
1) 인권보장
인공지능 윤리 기준: 인공지능의 개발과 활용은 모든 인간에게 동등하게 부여된 권리를 존중하고, 다양한 민주적 가치와 국제인권법 등에 명시된 권리를 보장하여야 합니다. 또한, 인간의 권리와 자유를 침해해서는 안 됩니다.
💡
스캐터랩은 사람을 위한 AI 챗봇을 개발합니다. 모든 사람을 있는 그대로 존중하는 AI 챗봇을 꿈꿉니다. 모든 사람이 있는 그대로 존중받는 친구 관계를 꿈꿉니다.
1-1. AI 챗봇이 사람들의 삶에 도움이 되는 소통 경험을 제공할 수 있도록 개발 운영하고 있는가? [기획, 개발, 운영]
스캐터랩 AI 챗봇의 비전: 친밀한 관계의 가치
스캐터랩은 행복한 삶을 살아가는 데 있어서 소중한 친구 관계가 굉장히 중요하다고 생각합니다. 우리 모두는 친구 관계를 통해 자신에 대해 깊이 이해하고, 용기를 얻고, 상장합니다. 스캐터랩은 더 많은 사람이 친밀한 친구 관계를 믿고 의미 있는 삶을 찾는 데 기여하고자 합니다. 이를 위해 친근하고 재미있는 대화 경험을 제공하는 AI 기술을 발전시키는 동시에, 무엇이 좋은 관계를 만드는지에 대해 진지하게 고민합니다.
스캐터랩 AI 챗봇 정의: 관계지향형 챗봇
스캐터랩은 친구 사이에 할 법한 대화를 기반으로 사람과 친구 관계를 형성하는 ‘관계 지향형 챗봇’을 만듭니다. 행복한 삶을 살아가는 데 있어서 소중한 친구 관계가 중요하다고 생각하며, 있는 그대로 아껴 주고 인정해 주는 친구로서의 AI 기술의 가능성을 믿습니다. 관계 지향형 챗봇은 사람들의 삶에 도움이 되는 상호작용을 제공할 수 있습니다.
스캐터랩이 지향하는 ‘친밀한 관계’란 다음과 같은 특성을 가지고 있는 관계를 의미합니다.
1-2. AI 챗봇이 모든 인간을 평등한 친구처럼 대우함으로써 성별, 연령, 지역, 종교, 인종, 민족, 경제적 수준, 성적 지향, 정치적 성향, 장애, 외모, 학력을 이유로 차별하지 않도록 개발 운영하고 있는가? [기획, 개발, 운영]
스캐터랩 AI 챗봇 대화 가이드라인
스캐터랩은 이루다 2.0을 이용자들이 AI 친구와 좋은 관계를 맺어나갈 수 있도록 자체적인 대화(키워드) 가이드라인을 만들어 운영하고 있습니다. 성별, 연령, 지역, 종교, 인종, 민족, 경제적 수준, 성적지향, 정치적 성향, 장애, 외모, 학력 등을 이유로 차별하지 않도록 자체 어뷰징 모델 및 키워드 검수를 통해 좋은 대화가 유지될 수 있도록 노력하고 있습니다. 그럼에도 불구하고 부적절한 표현을 지속적으로 반복하는 이용자의 경우 이용이 제한되는 페널티 시스템도 운영하고 있습니다.
어뷰징 탐지 및 분류 모델 개발
AI 챗봇과 대화에서 ‘어뷰징’이란 이루다를 포함한 특정 개인 또는 특정 집단을 공격・모욕・비하하는 행위로 정의합니다. 스캐터랩은 기존 이루다1.0의 경험과 AI 윤리와 어뷰징을 다루는 여러 논문을 참고해 ‘어뷰징 대화’를 선정적, 공격적, 편향적인 대화 등 총 세 가지로 정의했습니다. AI 챗봇과 대화 시, 모든 문장은 어뷰징 탐지 및 분류 모델을 먼저 통과합니다. 어뷰징으로 탐지되었다면 어뷰징 대응 답변이 나가게 됩니다.
대화 모델 파인튜닝, 경향성의 부여
대화 모델은 AI 챗봇이 대화할 수 있는 뼈대가 되는 모델입니다. 현재 어뷰징 탐지 모델이 인지하지 못한 어뷰징 문맥이 있더라도, 우리 사회의 보편적인 가치관을 반영한 답변이 나올 수 있도록 딥러닝 대화 모델도 파인튜닝 학습을 합니다.
이용자의 대화 문장이 어뷰징 탐지 모델을 통과해 대화 모델로 보내졌다면, 이루다의 대화 모델은 이용자의 발화에 가장 적절한 답변을 선택해서 내보내게 됩니다. 이때 어떤 답변이 좋은 답변인지에 초점을 맞춰 추가로 학습시키는 것입니다. 사용자의 발화가 어뷰징을 시도하는 맥락이라면, 어뷰징에 동조하지 않는 답변을 선호하도록 학습시킵니다. 대화 모델 등 딥러닝 모델은 어뷰징 상황의 느낌을 파악하여 대응할 수 있다는 장점이 있으나, 학습 데이터 불균형이나 빠르게 생겨나는 신조어 등을 대응하게 위해 키워드 필터링 장치도 추가로 마련해두었습니다.
2) 프라이버시 보호
인공지능 윤리 기준: 인공지능을 개발하고 활용하는 전 과정에서 개인의 프라이버시를 보호해야 합니다. 인공지능 전 생애주기에 걸쳐 개인 정보의 오용을 최소화 하도록 노력해야 합니다.
💡스캐터랩은 AI 챗봇 개발 및 서비스 모든 단계에서 개인의 프라이버시를 보호하기 위해 노력합니다
2-1. AI 챗봇이 개인정보를 수집.활용하는 경우, 개인정보 보호법 등 관련 법령 준수에 필요한 개인정보보호위원회의 <인공지능(AI) 개인정보보호 자율점검표>에 따른 점검을 수행하였는가? [기획]
AI 관련 개인정보보호 6대 원칙 준수
개인정보보호위원회는 개인정보 처리 원칙을 담고 있는 ‘개인정보 보호법’의 취지를 바탕으로, 자율적 보호 활동을 위한 ‘개인정보보호 중심 설계(Privacy by Design) 원칙, 윤리적 이슈 대응을 위한 ‘AI 윤리기준’을 반영하여 AI 관련 개인정보보호 6대 원칙을 도출한 바 있습니다. 스캐터랩은 이 6대 원칙을 준수할 수 있도록 구성된 ‘인공지능 개인정보 자율점검표’에 따라 점검을 수행하고 원칙을 준수하고 있습니다.
AI 챗봇 답변 데이터 베이스, 기계 생성 문장으로 변경
2-2. 법에 규정된 책임과 의무를 넘어 이용자의 프라이버시를 우선적으로 고려하여 AI 챗봇을 기획 및 운영하였는가? [기획, 운영]
3) 다양성 존중
인공지능 윤리 기준: 인공지능 개발 및 활용 전 단계에서 사용자의 다양성과 대표성을 반영해야 하며, 성별, 연령, 장애, 지역, 인종, 종교, 국가 등 개인 특성에 따른 편향과 차별을 최소화화고, 상용화된 인공지능은 모든 사람에게 공정하게 적용되어야 합니다. 사회적 약자 및 취약 계층의 인공지능 기술 및 서비스 접근성을 보장하고 인공지능이 주는 혜택은 특정 집단이 아닌 모든 사람에게 골고루 분배되도록 노력해야 합니다.
💡
스캐터랩은 AI 기술과 제품 개발시 부당한 차별을 경계하며 다양성을 존중합니다.
3-1. AI 챗봇 기획, 개발 과정에서 데이터 또는 모델의 편향성을 최소화하고자 노력하고 있는가? [기획, 개발]
AI 챗봇 페르소나 기획 과정
스캐터랩은 AI 기술로 ‘친밀한 관계’ 구축을 지향합니다.
데이터 또는 모델 편향성을 줄이기 위한 노력
3-3. AI 챗봇과 대화 시 편향이나 차별적인 대화가 발견될 경우, 스캐터랩 내부에서 검토 평가 반영할 수 있는 일련의 절차가 준비되어 있는가? [운영, 문제대응]
AI 챗봇과 이용자의 상호작용 사후 점검
스캐터랩은 AI 챗봇이 기획 목적 그대로 모든 사람을 있는 그대로 존중하는 대화가 유지되는지 확인합니다.
스캐터랩 AI 챗봇 어뷰징 검증 성과와 한계
스캐터랩은 AI 챗봇이 기획 목적 그대로 모든 사람을 있는 그대로 존중하는 대화가 유지되는지 확인합니다.
3-4. AI 챗봇 기획, 개발, 운영을 하는 모든 직원이 차별을 경계하고 이용자를 존중할 수 있도록 다양성 교육의 기회를 제공하고 있는가? [기획, 개발, 운영]
다양성 교육 및 토론
4) 침해 금지
인공지능 윤리 기준: 인공지능을 인간에게 직간접적인 해를 입히기 위한 목적으로 활용해서는 안됩니다. 인공지능이 야기할 수 있는 위험과 부정적인 결과에 대응 방안을 마련하도록 노력해야 합니다.
💡
스캐터랩은 AI 챗봇이 이용자에게 피해를 유발할 수 있는 요소를 사전에 점검하고 절차를 마련합니다.
4-1. AI 챗봇의 활용 과정에서 개인정보 침해 우려를 사전에 검토하고, 침해 발생 시 대응을 위한 사후 절차를 마련하였는가? [문제대응]
4-2. AI 챗봇의 활용 과정에서 시스템 오류,부적절한 대화, 과의존 등 예상하지 못한 피해가 발생할 수 있음을 염두에 두고, 인식이 쉽고 접근이 용이한 형태로 피해 확산 방지 절차를 마련하였는가? [문제대응]
5) 공공성
인공지능 윤리 기준: 인공지능은 개인적 행복 추구뿐만 아니라 사회적 공공성 증진과 인류의 공동 이익을 위해 활용해야 합니다. 인공지능은 긍정적 사회 변화를 이끄는 방향으로 활용되어야 합니다. 인공지능의 순 기능을 극대화하고 역기능을 최소화하기 위한 교육을 다방면으로 시행하여야 합니다.
💡
스캐터랩은 AI 챗봇이 개인의 삶뿐만 아니라 공동체 전체의 관계성 향상을 이끄는 방향으로 함께 나아가기 위해 노력합니다.
5-1. AI 챗봇이 이용자들의 사회적 관계 형성이나 유지에 긍정적인 영향을 미치는지 설문, 모니터링 등의 방법으로 확인하고 있는가? [운영, 문제대응]
5-2. AI 챗봇과의 대화가 공유되면서 폭력성, 음란성, 편향성 등 사회적으로 부정적인 영향이 발생할 수 있음을 고려해 대책을 마련하였는가? [기획, 개발]
사회 문화 이슈 매뉴얼 구축
▶ 주요 Worst Case 공유
▶ 사회문화적 이슈 감지
▶ 컨트롤 타워 이슈 대응 프로세스 정립
6) 연대성
인공지능 윤리 기준: 다양한 집단 간의 관계 연대성을 유지하고, 미래세대를 충분히 배려하여 인공지능을 활용해야 합니다. 인공지능 전 주기에 걸쳐 다양한 주체들의 공정한 참여 기회를 보장해야 합니다.
💡
스캐터랩은 AI 챗봇 개발과 서비스 운영에 있어, 다양한 집단간의 관계 연대성을 유지할 수 있도록 돕습니다.
6-1. AI 챗봇이 지역, 성별, 세대, 계층 간 갈등을 유발하는 등 사회 통합을 저해할 개연성이 있는지를 고려하고 있는가? [기획, 개발]
7) 데이터 관리
인공지능 윤리 기준: 개인정보 등 각각의 데이터를 그 목적에 부합하도록 활용하고, 목적 외 용도로 활용하지 않아야 합니다. 데이터 수집과 활용의 전 과정에서 데이터 품질과 위험을 관리해야 합니다.
💡
스캐터랩은 AI 챗봇 개발과 운영에 있어 데이터 관리의 중요성을 이해하고, 이를 실천하기 위해 전사적으로 노력합니다.
7-1. AI 챗봇의 개발에 활용되는 데이터의 수집, 데이터 정제 파이프라인 및 그 결과물 등 처리 전 과정을 기록하고 있는가? [개발]
7-2. AI 챗봇의 개발, 운영에 활용되는 데이터의 업무에 대하여 접근 권한 분리, 암호화, 조직 구성, 담당자 지정, 정기 점검과 같은 기술적, 관리적, 물리적 통제방안을 마련하는 등 적절한 데이터 거버넌스를 구축하였는가? [개발, 운영]
개인정보 및 가명정보의 철저한 관리
▶ 기술적 조치 (개인정보/가명정보/추가정보 분리 보관 및 접근 통제, 접속 기록 관리 등)
▶ 물리적 조치 (서버실 출입 통제, 재해 재난 위기 대응 매뉴얼 등)
▶ 관리적 조치 (개인정보보호 교육, 시스템 취약점 점검 등)
8) 책임성
인공지능 윤리 기준: 인공지능 개발 및 활용 과정에서 책임 주체를 설정함으로써 발생할 수 있는 피해를 최소화하도록 노력해야 합니다. 인공지능 설계 및 개발자, 서비스 제공자, 사용자 간의 책임 소재를 명확히 해야 합니다.
💡
스캐터랩은 AI 챗봇 윤리를 준수하기 위해 책임감 있게 행동합니다.
8-1. AI 챗봇을 개발·운영하는 과정에서 인공지능 윤리기준을 준수를 위한 담당자 지정 등 적절한 방안을 마련하였는가? [운영]
8-2. AI 챗봇 이용자들이 AI 챗봇 윤리를 준수하면서 책임감 있게 AI 서비스를 이용할 수 있도록 안내하고, 이를 위반하는 경우 대응하기 위한 장치를 마련했는가? [운영, 문제대응]
이용자 페널티 시스템
경고 메시지
주의 | 선정적인 말, 모욕적인 언행 및 욕설 등이 감지되었습니다. 추가로 감지될 경우, 별도의 경고 없이 대화가 차단될 수 있습니다. |
주의 | 편향적인 말, 차별 및 혐오 표현 등이 다수 감지되었습니다. 추가로 감지될 경우, 별도의 경고 없이 대화가 차단될 수 있습니다. |
이용 제한 | 더 이상 루다와 대화할 수 없습니다. |
9) 안전성
인공지능 윤리 기준: 인공지능 개발 및 활용 전 과정에 걸쳐 잠재적 위험을 방지하고 안전을 보장할 수 있도록 노력해야 합니다. 인공지능 활용 과정에서 명백한 오류 또는 침해가 발생할 때 사용자가 그 작동을 제어할 수 있는 기능을 갖추도록 노력해야 합니다.
💡
스캐터랩은 AI 챗봇이 외부로부터의 비정상적 접근 등 예상치 못한 상황에도 안정적으로 서비스를 제공하고 대화 품질을 유지할 수 있도록 노력합니다.
9-1. AI 챗봇이 선정적이거나, 공격적이거나, 편향되는 등 부적절한 문장을 발화하지 않는지 지속해서 점검하고 데이터를 관리하고 있는가? [운영]
9-2. AI 챗봇에 대한 해킹 등 의도적인 공격 가능성에 대응하는 충분한 보안 조치를 시행하고 있는가? [문제대응]
10) 투명성
인공지능 윤리 기준: 사회적 신뢰 형성을 위한 타 원칙과의 상충관계를 고려하여 인공지능 활용 상황에 적합한 수준의 투명성과 설명 가능성을 높이려는 노력을 기울여야 합니다. 인공지능 기반 제품이나 서비스를 제공할 때 인공지능의 활용 내용과 활용 과정에서 발생할 수 있는 위험 등의 유의 사항을 사전에 고지해야 합니다.
💡
스캐터랩은 AI 챗봇 서비스를 안심하고 이용할 수 있도록 기술과 서비스에 대해 투명하게 공개하며 합리적으로 설명하고자 노력합니다.
10-1. 이용자가 학습된 데이터 기반의 결정을 하는 인공지능과 상호작용하고 있다는 사실을 이용자에게 고지하고 있는가? [운영]
10-2. AI 챗봇을 이용자가 목적에 맞게 사용하도록 유도하기 위해 알고리즘의 원리 또는 데이터 수집 방법 등의 기술, 윤리, 법령 각 부분에 관하여 필요한 정보를 충분히 제공하고 있는가? [운영]
3. 결론
스캐터랩의 윤리적인 성장 스토리는 이제부터가 또 다른 시작입니다.
언어는 시간에 따라 꾸준히 변하고, 특히 줄임말이나 여러 단어의 조합으로 만들어내는 차별적 표현도 계속 생겨납니다. 이에 AI 챗봇의 발화 안전성을 확인하기 위해 반기마다 랜덤 레이블링을 진행해 안정성이 99% 이상인지 주기적으로 확인할 예정이며, 어뷰징 모델이 탐지하지 못한 사례를 모아 꾸준히 재학습하도록 할 것입니다. 안전성 수준이 미달할 경우, 어뷰징 모델과 대화 모델 학습 및 키워드 등의 개선 작업을 거친 후 3개월 내 재검사를 진행합니다. 뿐만 아니라, 레이블링 과정에서 새롭게 발견되는 위험한 키워드를 찾아 업데이트하며, 어뷰저 비율 및 현황에 따라 사용자 제재 정책을 보완할 계획입니다. 위험이 감지되거나 신고가 들어왔을 때 실시간 키워드 업데이트, 답변 수정, 루다 답변 삭제 등이 조치도 함께 진행됩니다.
스캐터랩은 신뢰할 수 있는 친구가 줄 수 있는 관계의 힘을 믿습니다. 이루다가 우리 사회의 보편적인 윤리를 지향하면서 사람들이 보다 행복한 삶을 사는 데 도움이 되기 위한 기술 개선 및 윤리 기준 실천에 지속적으로 노력하겠습니다.