Fashion

Google 아직도 Gemini의 편향된 이미지 생성기 수정하지 못함

지난 2월에 구글은 AI 기술을 이용한 챗봇 Gemini의 사람 이미지 생성 능력을 정지시켰다. 사용자들이 역사적 오류를 불평했기 때문이다. 예를 들어 '로마 군단'을 묘사하라고 하면 Gemini는 불일치한 인종 다양성의 군인 군단을 보여주고 '줄루 전사'를 전형적으로 흑인으로 묘사한다.

구글 CEO 선다르 피차이는 사과하였고, 구글의 AI 연구 부문 DeepMind의 공동 창업자 데미스 하사비스는 수정이 '매우 빨리' 이루어질 것이라고 말했다 - 다음 몇 주 안에. 하지만 우리는 이미 5월 중순이 되었고, 약속된 수정은 여전히 미진한 상태이다.

이번 주에 구글은 매년 개최되는 I/O 개발자 컨퍼런스에서 Gemini의 다른 기능들을 맹세했다. 사용자 정의 챗봇부터 휴가 일정 플래너 및 Google 캘린더, Keep, YouTube Music과의 통합까지 다양하다. 그러나 Gemini 앱에서의 이미지 생성 기능은 여전히 꺼져 있는 상태다. 구글 대변인이 확인했다.

그렇다면 지연의 이유는 무엇일까? 아마도 문제는 하사비스가 언급한 것보다 더 복잡할 것이다.

Gemini와 같은 이미지 생성기를 훈련시키는 데 사용되는 데이터셋은 보통 흰 인종의 이미지가 다른 인종과 민족의 이미지보다 더 많이 포함되어 있으며, 해당 데이터셋에 있는 비백인의 이미지는 부정적인 편견을 강화시킨다. 구글은 이러한 편향을 교정하기 위해 미숙한 하드코딩을 구현했고 지금은 역사를 반복하지 않는 합리적인 중간지점을 찾기 어렵다.

구글이 성공할까? 아마도. 아닐 수도 있을 것이다. 어쨌든 지연된 일은 AI의 문제를 수정하는 것이 쉽지 않음을 상기시키는 과정으로 작용한다 - 특히 편향이 문제의 근본이 되었을 때.

우리는 AI 뉴스레터를 시작합니다! 6월 5일 이메일함으로 받아보기 위해 여기에서 가입해주세요.

Related Articles

Back to top button Back to top button