꾸준히 연구됐고, 수도 없이 많이 개발돼 있어요. 우리나라에는 대표적으로 심심이나 이루다 같은 챗봇이 있었지요. 하지만 챗GPT만큼 인간 수준으로 대화가 가능한 모형은 처음이에요. 다양한 연령대가 활용할 만큼 사용성도 크게 개선됐어요. GPT-3만 해도 개발자와 연구자들이 주로 사용했어요. ...
공간도 숨겨져 있습니다. 명탐정이 된 마음으로 샅샅이 살펴보세요. 루다카페 5 ‘이루다’라는 크리에이터가 만든 카페 월드예요. 루다카페는 단순히 예쁜 카페가 아니에요. 음악을 사랑하는 ‘루다 사장님’이 매일 카페에 출근해 음료 주문을 받는 역할극을 하며 음악도 틀어준답니다. ...
보호해야 한다. 인공지능에게도 윤리는 필요해!지난해 우리나라에서는 ‘AI 챗봇 이루다’가 출시되자마자 논란을 일으키고 서비스가 중단되는 문제가 발생했습니다. 인공지능에게 말을 걸자 인종차별, 성차별 등 각종 혐오로 가득한 대화가 진행되었기 때문이었죠. 아마존이 야심차게 개발한 ...
여지가 상당히 많다”고 말했습니다. *이루다 논란 2020년 스캐터랩이 공개한 AI 챗봇 ʻ이루다’가 성희롱 및 장애인, 동성애 혐오 발언을 해 문제가 된 ...
편하게 만드는 한편 새로운 윤리적 고민거리를 던져줬다. 지난 1월 대화형 인공지능(AI) ‘이루다’는 혐오표현 및 개인정보 유출 논란 등의 문제로 출시 20일 만에 서비스가 중단됐다. 7월에는 세계 첫 인공수정란이 합성돼 이를 생명으로 봐야 하는지에 대한 논란이 일었다. 마지막은 ...
과정 중에 알게 된 개인의 주소, 계좌번호 등 다양한 정보를 대화로 노출했다. 심지어 이루다가 학습한 데이터 속에 섞여 있던 편향성은 소수자 차별과 성희롱 등으로 표출됐다. 비슷한 사례가 전 세계 다양한 AI 모델에서 나타났다. 이에 일부 연구자들이 의도적 망각을 도입할 필요성을 제기했다. ...
이루다를 성적 쾌락의 도구로 대하고 성희롱했다는 사실이 놀랍지 않은 건 이루다를 디지털 성범죄에 가장 취약한 20대 여성으로 가정했기 때문이겠죠. 안타까운 일입니다. Q 사회는 어떻게 바뀌어야 할까요?사람들은 유독 인공지능의 위험을 ‘개발자도 알 수 없는 예측 불가능한 위험’으로 ...
따라 특정 종류의 혐오 표현에 대해 법적으로 처벌할 근거를 마련하고 있다.중요한 점은 이루다와 같은 공정함을 요구할 필요가 있는 AI의 기획 및 제작 단계에서 어느 정도의 공정함이 적절한 수준인지를 미리 고민하고, 이를 알고리즘이나 데이터 수집 및 활용 과정에 반영하는 것이다. 이를 ...
AI ‘테이’의 인종 차별적 발언, 아마존 채용 AI의 성차별적 판단, 국내 대화형 AI ‘이루다’의 소수자 혐오 발언이 그 예다.단, 기술적 의미에서 AI의 편향(bias)은 조금 더 넓은 범위를 포괄한다. 최재식 KAIST AI대학원 교수는 “사회적·윤리적 이슈에 대해서만이 아니라, 사실관계를 예측하는 AI가 ...
조금 더 잘 판단할 수 있도록 개선해 서비스를 다시 시작할 것이라 밝혔죠. 혹시 이번 이루다 사건으로 AI에 대해 실망했나요? 그렇다면 조금 더 기다려주세요. 이번 일을 계기로 더 나은 AI와 우리가 될 테니까요 ...