[IT, 테크]게임 중의 욕설 자동으로 음소거 해주는 AI 등장 'Bleep'

2021-04-12


Bleep

[아이디어 래빗] 인텔이 인공지능을 기반으로 욕설과 혐오 발언을 필터링하는 새로운 기술 '블리프(Bleep)'를 공개했다.

'블리프'는 인텔이 영국의 개발사 스피릿 AI와 2년간의 협업으로 제작한 기술로, 사용자가 원하지 않는 언어 표현이 감지되면 경고음 혹은 음소거 모드가 작동하는 기술이다.

AI는 욕설뿐만 아니라 '성소수자 혐오', '여성 혐오', '인종 차별', '외국인 차별', '백인 우월주의', '장애인 비하', '성적 발언'을 구분할 수 있다. 필터링 수위는 4단계로 나누어 조절이 가능하기 때문에 사용자에 맞춰 다양하게 설정할 수 있다.

'블리프'는 텍스트 로그를 이용해 어떤 말이 음소거가 됐는지 확인 가능하다. 하지만 이 텍스트 로그는 컴퓨터가 재부팅될 때 리셋되기 때문에 영구적으로 저장되는 것은 아니다.

인텔은 블리프를 2021년 하반기에 출시할 예정이다. 현재 베타 테스트 단계에 돌입했으며, 인텔 데스크톱 및 노트북 프로세서에 도입될 예정이다.