생성형 AI 시대의 책임 있는 혁신
어도비 파이어플라이로 생성한 이미지
생성형 AI는 크리에이티브에 대한 많은 사람들의 생각을 바꾸고 있습니다. "3D로 렌더링된 종이 드래곤, 스튜디오 스타일 사진"이라는 텍스트를 입력하면 종이접기로 구현된 3D 드래곤 이미지를 다양하게 확인할 수 있습니다. 또한 챗봇은 몇 가지 데이터와 단순한 지침만으로 매력적인 마케팅 이메일 카피를 제시합니다. 개인 크리에이터와 기업 모두에게 이 기술이 얼마나 강력한 힘을 발휘할 수 있는지는 쉽게 알 수 있습니다. 생성형 AI를 사용하면 픽셀이나 페인트가 아닌 텍스트로 그림을 그릴 수 있고, 비즈니스 측면에서는 자동으로 생성된 텍스트, 이메일, 콘텐츠를 통해 고객과 효율적으로 소통할 수 있습니다. 올바른 방식으로 구현된 생성형 AI는 기존 워크플로우를 더욱 정확하고, 강력하며, 빠르고 간편하게 만들어 주므로, 사람들은 더욱 전략적이고 창의적인 작업에 집중할 수 있습니다.
생성형 AI는 또한 디지털 시대의 윤리와 책임에 대한 새로운 질문을 던집니다. 어도비를 비롯한 여러 기업이 이 첨단 기술을 활용함에 따라, 업계 전체가 책임 있는 개발과 사용을 유도할 일련의 안전장치를 개발하고, 구현하고, 실천할 수 있도록 협력해야 합니다.
윤리와 책임
생성형 AI 툴을 개발하는 기업이라면 AI 윤리 체계를 정립해야 합니다. 간결하고 실행 가능한 AI 윤리 원칙을 세우고, 공식 검토 프로세스를 회사의 엔지니어링 구조에 포함시킴으로써 고객을 존중하고 기업 가치에 부합하는 생성형 AI를 포함한 인공지능 기술을 개발할 수 있습니다. 이 프로세스의 핵심은 학습, 테스트, 그리고 필요한 경우 사람의 감독입니다.
다른 인공지능과 마찬가지로 생성형 AI의 결과는 학습 대상인 데이터에 달려 있습니다. 유해한 결과물을 줄이려면 안전하고 포용적인 데이터 세트를 구축하고 이를 학습시켜야 합니다. 예를 들어 크리에이티브 생성형 AI 모델군인 어도비 파이어플라이의 첫 번째 모델은 어도비 스톡(Adobe Stock) 이미지와 개방형 라이선스 콘텐츠, 저작권이 만료된 퍼블릭 도메인 콘텐츠를 학습합니다. 엄선된 다양한 데이터 세트를 기반으로 학습한 모델은 상업적으로 안전하고 윤리적인 결과물의 측면에서 경쟁력을 갖습니다.
모델에 무엇을 입력하는 지가 중요한 만큼, 무엇이 출력되는지도 중요합니다. 좋은 데이터에 기반하더라도 의도하지 않게 차별하거나 폄훼하는 편향된 AI가 될 수도 있기 때문입니다. 엄격하고 지속적인 테스트만이 해결책입니다. 어도비는AI 윤리 팀의 지휘 아래, 모델의 안전성과 편향성을 내부적으로 꾸준히 테스트하고 있으며, 그 결과를 엔지니어링 팀에 전달해 문제가 되는 부분을 해결하고 있습니다. 또한, AI 기능을 공개한 후 사용자는 우려되는 사항을 신고할 수 있고, 이를 교정할 수 있는 피드백 메커니즘을 갖추고 있습니다. 기업이 대중과 함께 문제를 해결하면서 모두를 위한 생성형 AI로 발전시켜 나갈 수 있도록 이와 같은 양방향 대화 구조를 지원하는 것은 매우 중요합니다.
제품의 윤리 수준을 향상시키려면 학습 외에도 다양한 기술적 대책을 마련해야 합니다. 차단 목록, 거부 목록, 부적절한 내용(NSFW) 등의 분류를 적용하면 AI 모델이 생성하는 결과물의 유해한 편향성을 완화할 수 있습니다. 그럼에도 결과물에 확신이 없거나 불만족스러운 경우, 언제든지 검토 과정에 사람이 참여하여 해당 결과물이 기대에 부합하는지 확인할 수 있습니다.
외부 협력사의 AI를 사용하는 기업은 해당 AI를 회사 워크플로우 혹은 자사 제품 중 어디에 통합하든, AI가 자사의 윤리 기준에 부합하는지 확인하는 과정을 협력사 리스크 관리 프로세스에 포함시켜야 합니다.
투명성을 통한 신뢰
생성형 AI 모델이 생산하는 콘텐츠의 투명성도 필요합니다. 앞서 살펴본 예를 다시 한번 들어보겠습니다. 단, 이번에는 종이 드래곤이 아니라 글로벌 리더의 연설이라면 어떨까요? 이미 잘못된 정보가 범람하는 디지털 세상에서 생성형 AI가 그럴싸하게 합성한 콘텐츠를 만들어낼 수 있다는 우려가 커지고 있습니다. AI가 생성해내는 콘텐츠 양이 증가함에 따라 메시지를 전달하며 이것이 사실임을 인증하는 방법을 제공하는 것이 점차 중요해 질 것입니다.
어도비에서는 콘텐츠 자격 증명(Content Credentials)을 통해 이러한 수준의 투명성을 제품에서 구현하고 있습니다. 크리에이터는 콘텐츠 자격 증명 기능을 활성화하여 콘텐츠에 자신의 이름, 날짜, 제작에 사용된 툴 등의 정보를 첨부할 수 있습니다. 이 콘텐츠 자격 증명은 콘텐츠에 항상 따라다니므로, 해당 콘텐츠의 출처와 유통 과정을 정확히 파악할 수 있습니다.
어도비는 이러한 솔루션을 개방된 형태로 구축하기 위해 4년 전 콘텐츠 진위 이니셔티브(Content Authenticity Initiative)를 출범하여 누구나 이를 자사 제품과 플랫폼에 적용할 수 있습니다. 현재 기술, 언론, 정책 등 다양한 분야에서 900 곳이 넘는 회원사가 이 솔루션이 확산될 수 있도록 협력하고 있습니다.
특히 생성형 AI의 경우, 자동으로 콘텐츠 자격 증명이 첨부되게 하여 생성형 AI를 통해 제작 혹은 변경된 콘텐츠를 표시합니다. 이를 통해 사용자는 해당 콘텐츠의 제작 방식을 파악하고 신뢰 여부를 판단할 수 있습니다.
어도비 파이어플라이로 생성한 이미지
크리에이터의 선택 및 제어 존중
크리에이터는 생성형 AI가 자신의 작업물을 학습해도 될지를 직접 결정하고 싶어합니다. 자신의 콘텐츠가 AI 학습 대상에서 제외되기를 바라는 크리에이터도 있고, 소유권을 유지한다는 조건 하에 자신의 작업물이 새로운 기술의 성장에 밑거름이 되는 것을 반기는 크리에이터도 있습니다. 크리에이터는 콘텐츠 출처 기술을 이용해 자신의 작업물을 따라 다니는 ‘학습 금지(Do Not Train)’ 자격 증명을 첨부할 수 있습니다. 업계가 이를 도입한다면 웹 크롤러가 학습 금지 자격 증명이 첨부된 작업물을 데이터 세트의 일부로서 사용하는 것을 방지할 수 있을 것입니다. 또한 크리에이터의 기여에 적절한 보상을 제공하기 위한 노력을 통해 크리에이터의 역량을 강화하는 동시에 경험도 향상시키는 생성형 AI를 구축할 수 있을 것입니다.
계속되는 여정
생성형 AI는 이제 막 첫걸음을 디뎠고 기술은 매일 발전하고 있습니다. 그에 따라 새로운 과제가 생겨날 것입니다. 업계와 정부, 커뮤니티가 이를 해결하기 위해 함께 노력해야 합니다. 모범 사례를 공유하고 표준을 준수하여 생성형 AI를 책임감 있게 개발함으로써, 생성형 AI가 지닌 무한한 가능성을 열고 더욱 신뢰할 수 있는 디지털 공간을 구축할 수 있습니다.