펄어비스, '붉은사막' AI 작업물 활용 미고지로 사과문 게시 개발 시 AI 활용은 필연…대형 게임일 수록 이용자 반감 커 "반감은 과도기적 현상...기술 오류·저작권 철저 검수 필요"
펄어비스의 '붉은사막' 공식 이미지. 사진=펄어비스
[빅데이터뉴스 김유승 기자] 펄어비스의 신작 ‘붉은사막’에서 인공지능(AI)을 활용한 이미지가 발견되면서 게임업계 내 AI 활용 논란이 다시 수면 위로 떠올랐다. 생성형 AI 도입으로 개발 비용과 시간이 절감되지만 대형 신작을 향한 이용자들의 반발은 오히려 거세지는 양상이다. 전문가들은 이를 기술 도입 초기의 과도기적 현상으로 보면서도, AI 활용 과정에서 발생할 수 있는 치명적인 오류와 저작권 문제를 고려해 철저한 검수는 필수라고 지적한다.
24일 게임업계에 따르면 펄어비스는 지난 20일 출시한 오픈월드 액션 어드벤처 게임 ‘붉은사막’ 제작 과정에서 생성형 AI 사용 사실을 사전에 고지하지 않아 비판이 일자 공식 사과문을 게재했다. ‘붉은사막’은 출시 직후 해외 SNS를 중심으로 게임 내 일부 이미지에서 생성형 AI 특유의 어색한 표현이 발견됐다는 의혹이 제기됐다. 이에 일부 이용자들은 사전 고지가 없었다는 점을 문제 삼으며 환불을 요청한 것으로 알려졌다. 글로벌 게임 유통 플랫폼 스팀(Steam) 규정에 따르면 제작 과정에서 생성형 AI 사용 여부를 고지하지 않았을 경우 통상적인 환불 가능 시간이 지났더라도 환불을 받을 수 있다. 논란이 확산되자 펄어비스는 생성형 AI 사용 사실을 표기하고 사과문을 통해 문제가 된 콘텐츠를 조사해 추후 교체하겠다고 약속했다.
생성형 AI 활용 논란은 이번이 처음이 아니다. 지난해 게임 시상식 ‘더 게임 어워드(TGA)’에서 ‘올해의 게임’을 수상한 ‘클레르 옵스퀴르: 33원정대’ 역시 AI 사용 사실을 알리지 않아 논란에 휘말린 바 있다. 앞서 출시된 ‘콜 오브 듀티: 블랙 옵스 7’은 실사 밀리터리 스타일과 맞지 않는 이른바 ‘AI풍’ 이미지로 비판을 받았다. 넥슨의 자회사 엠바크스튜디오가 개발한 ‘더 파이널스’도 AI 음성 활용을 두고 논란이 제기된 바 있다.
생성형 AI는 이제 게임 개발에서 활용을 피하기 어려운 기술로 자리 잡았다. 특히 작업 효율을 극대화할 수 있다는 점에서 1인 개발자나 인디 게임을 중심으로 널리 활용되고 있다. NPC 대사를 실시간으로 생성하는 대화형 AI를 비롯해 일러스트 제작을 보조하는 이미지 생성 모델, 배경 음악 자동 작곡 모델 등 다양한 분야에서 사용되고 있는 모양새다. 기획 분야에서는 AI 도구 활용 역량 강화 교육이 진행되고 있으며 아트 분야에서도 AI 기반 환경 제작 실습 중심의 교육이 확대되고 있다.
법적 제도화도 이뤄졌다. 지난 1월부터 시행된 ‘인공지능(AI) 기본법’ 제31조는 텍스트·이미지·영상·음성 등 콘텐츠가 AI를 통해 제작된 경우 이를 명확히 표시하도록 규정한다. 이용자의 알 권리를 보장하고 딥페이크 등 오용을 방지하기 위한 취지다.
이 같은 흐름 속에서도 대형 게임일수록 AI 활용이 이용자의 기대감을 낮추는 요인으로 작용한다는 지적이 나온다. 품질 저하 우려와 함께 인력 절감을 통한 비용 절감이라는 인식이 게임 선택에 부정적으로 작용한다는 비판이다.
이러한 우려를 반영해 캡콤은 23일 개인 투자자 대상 온라인 설명회를 통해 AI 활용에 대해 보수적인 입장을 내놓은 바 있다. 그래픽, 사운드, 프로그래밍 등에서는 AI를 개발 프로세스 효율화와 생산성 향상 도구로 적극 활용하되 AI가 생성한 결과물을 직접 게임 콘텐츠에 적용하지는 않겠다는 방침이다.
다만 전문가들은 게임 업계 전반의 생성형 AI 도입 확대를 거스를 수 없는 필연적 흐름으로 내다보고 있다. 현재의 반발은 기술 도입 초기 단계에서 나타나는 과도기적 현상이라는 진단이다.
김정태 동양대 게임학부 교수는 “붉은사막의 AI 활용에 대한 반발은 사전 미고지였던 점과 더불어 생성형 AI 기술이 도입된 지 얼마 되지 않았기 때문이라고 본다”며 “장기적으로는 AI 기술이 보편화되고 이를 적극적으로 도입한 게임들이 성과를 내기 시작하면 AI에 대한 반감은 상당 부분 완화될 것으로 예상한다”고 말했다.
다만 그는 게임 내 AI 활용에 있어 치명적인 리스크가 존재함을 경고했다.
김 교수는 “AI 기술을 게임 개발 전반에 맹목적으로 도입할 경우 최고기술책임자(CTO)나 개발팀장 수준에서도 원인을 파악하기 어려운 오류가 발생할 수 있다. 이런 문제가 해결되지 않으면 프로젝트 전체에 큰 타격을 줄 수 있고 서비스 중단이나 대규모 비용을 들여 재개발해야 하는 상황으로 이어질 가능성도 있다”고 말했다.
이어 “이는 기술뿐 아니라 아트 영역에서도 마찬가지다. 생성형 AI를 활용할 경우 크리처 이미지의 일부만 변형하거나 색상 톤만 바꾸는 등 완성도가 떨어지는 결과물이 나올 수 있고 저작권 문제도 발생할 수 있다. 따라서 각 분야별로 전문성을 갖춘 디렉터급의 철저한 검수가 필수이며 아주 미세한 부분까지 반복적으로 점검해야 한다”고 강조했다.
이 같은 리스크로 인해 현재 다수의 게임사들은 전면적인 상업 서비스 적용보다는 제한적인 범위 내에서 AI를 도입하고 있다. 향후에도 신중한 접근이 필요하다는 분석이다.
김 교수는 “향후 AI 기반 상용 서비스가 저작권과 윤리 측면에서 사회적 합의를 통과할 수 있을지가 중요한 과제로 남아 있다. 기술이 일정 수준 이상 성숙하면 저작권이나 윤리 문제는 본격적으로 부각되는 시점이 근시일 내에 올 수 있지 않을까 한다”고 덧붙였다.