재료가 됐다. 대표적인 사례가 올해 초 국내에서 사회적 이슈로 떠올랐던 이루다 사태다. 챗봇 AI 이루다를 개발하는 과정에서 일부 사용자가 인지하지 못한 상태로 개인정보가 개발사에 제공됐다. 그 결과 이루다는 학습 과정 중에 알게 된 개인의 주소, 계좌번호 등 다양한 정보를 대화로 노출했다. ...
인공지능을 개발할 때 공공선을 지키겠다는 ‘인공지능 윤리헌장’을 발표했어요. 챗봇 의 인권 침해 발언 등의 위험을 줄 이겠다는 거지요. 네이버도 지난 해 10월 ESG 위원회를 설치하며 2040년까지 탄소 네거티브 를 달성하기로 했답니다. 아이스박스, 덜 유해하게 만들 수 있을까? 3월 15일, ...
기리기 위해 열린 행사에서 2001년 러시아 연구원들이 만든 ‘유진 구스트만’이라는 챗봇이 튜링 테스트가 만들어진 지 64년 만에 처음으로 튜링 테스트를 통과했습니다. 당시 심사위원의 30% 이상이 실제 사람이라고 판단할 정도였죠. 하지만 유진 구스트만을 ‘생각하는 컴퓨터’로 인정할 수 ...
심각한 문제입니다.”임소연(숙명여자대학교 인문학연구소 연구교수) Q 인공지능 챗봇 이루다 사건을 어떻게 보셨나요?인공지능은 그 사회를 닮을 수밖에 없습니다. 이미 인간들이 차별과 혐오를 저지르는데 이를 학습한 인공지능에게 도덕성을 바랄 순 없겠죠. 사실 전 이루다가 행한 혐오 ...
인공지능(AI)이 공정하다 또는 편견을 갖는다는 것은 정확히 무엇을 의미할까. 최근 지속적으로 벌어지고 있는 AI의 편향성 논란을 철학적으로 점검하기 위해서는 AI의 공정성 또는 편견이라는 개념의 정의를 점검할 필요가 있다. 현실의 AI는 아직 공정함을 이해하지 못한다먼저 현재의 AI가 어떤 ...
#Scene 1 변호사 A의 사무실변호사 A 이쪽으로 앉으시죠. 채용 과정에서 부당한 일을 겪었다던데 어떤 일인가요?대학생 B 네, 변호사님. 다름 아니라 제가 이번에 OO 회사에 입사 지원을 했다가 서류심사에서 탈락하고 말았습니다. 상심하던 중에 OO 회사가 신입사원 채용에 인공지능(AI)을 도입했다 ...
최근 많은 기업이 친구나 연인처럼 대화를 나눌 수 있는 AI를 개발하기 시작했습니다.AI 챗봇 이루다도 그중 하나입니다. 2020년 12월 23일 정식 공개된 이루다는 약 100억 건에 달하는 대화 데이터를 학습했습니다. 이 데이터의 크기가 모두 합쳐 350GB나 됐죠. 또 이루다는 자연어를 이해하는 기술과 ...
1월 15일 밝혔다.이루다는 지난해 12월 23일 페이스북 메신저를 기반으로 출시된 AI 챗봇 서비스다. 스캐터랩은 2016년 출시한 연애 분석 앱 ‘연애의 과학’으로 수집한 카카오톡 데이터 약 100억 건 중 1억 건을 이루다의 딥러닝 재료로 사용했다. 이루다는 자연스러운 대화 기능으로 인기를 끌었으나, ...
말했다.과학기술정책대학원의 임무는 최근 혐오 표현으로 논란이 된 인공지능(AI) 챗봇 ‘이루다’ 이슈를 통해서도 살펴볼 수 있다. 김 교수는 “몇 년 전 영국의 한 로봇연구소에서 개발자들과 AI의 편향성 문제에 관해 논쟁을 벌인 적이 있다”며 “데이터 자체가 편향돼 있을 경우 개발자들은 ...
버트는 구글 검색과 번역 서비스는 물론, 채팅으로 고객상담을 하는 여러 기업의 챗봇 서비스에 이미 적용된 기술입니다. 우리가 모르는 사이 매일 이용하고 있는 생활 속 딥러닝 기술이라고 할 수 있죠. 버트가 특별한 이유는 어느 분야의 용어든지 잘 인식할 수 있는 확장성 때문입니다. ...