영국 BBC가 이야기 하는 미디어 기업 입장의 AI 가이드라인과 윤리
생성형 AI 기업과 미디어 기업간의 소송 이슈가 뜨거운 감자로 업계의 화두가 되고 있는 지금(오픈AI와 뉴욕타임즈 간의 소송 - 출처, 구글) '뉴욕타임스는 오픈AI가 뉴욕타임스의 기사를 GPT 모델 훈련에 사용하고, 답변 생성에 기사를 그대로 노출하며, 잘못된 정보로 명예를 훼손했다고 주장' 하는 이야기 속에서 많은 미디어 기업 뿐만 아니라, 콘텐츠를 생성하는 '콘텐츠 크리에이터'마저도 생성형 AI에게 '콘텐츠 도둑질'을 당하는 것이 아니냐 하는 이야기 까지 나오고 있습니다.
이러한 환경에서, 영국의 국영방송인 BBC가 AI를 앞에 세우고 실제 방송 편성 및 미디어 활용에 있어서 'AI를 어떻게 활용하고, 책임있는 AI를 위한 가이드라인을 정리'하는 입장 표명을 온라인으로 공식적으로 밝혔습니다.
타이틀은 'BBC Guidance : The Use of Artifical Intelligence' 인데요. 총 9개의 목차의 내용을 가지고 'AI를 사용하는 과정에서 고려해야 할 규범'과 '윤리적 가치에 대한 지침'을 제시하는 '기본 원칙'을 담고 있습니다. 특히 미디어 기업으로서 'AI의 활용'은 BBC의 편집 지침과 가치에 부합하도록 해야 하며, 투명하고 신뢰할 수 있어야 한다는 AI 윤리 및 기업 거버넌스를 고려하여 내용을 정리하였습니다. 단, 유연하고 (빈도수가) 적은 수정 및 개정을 통해 지속적인 갱신을 지원한다는 이야기를 덧붙이고 있다는 점이 강조될 수 있는 사항 입니다.
그렇다면, 핵심적인 사항들은 무엇일지 살펴보면,
하나. BBC는 AI 사용시 공공 서비스 가치를 준수하고, 재능과 창의력을 우선시하며, 공개적이고 책임감 있게 사용해야 한다. AI 사용은 관객의 신뢰를 저해해서는 안 되며, 항상 투명하고 책임을 져야 한다
둘. AI 사용시 편집과 승인에 있어서 사람이 감독해야 하는 필연성을 우선시 한다. 또한, AI 사용은 의도에 따라 필요할 때 활용되어야 하며, AI가 생성 및 제공 또는 배포된 콘텐츠는 BBC의 편집 지침을 준수해야 한다
셋. AI의 (기술적) 알고리즘과 훈련 데이터는 바이어스를 일으킬 소지가 있으며, 이에 대한 고려 및 검토가 필요하다. AI 사용의 가능성을 조사할 때는 (일어날 수 있는) 편견 및 이슈에 대해 고려해야 하며, 콘텐츠가 정확하지 않을 가능성을 염두에 두어야 한다(Fact Check를 고려하는 내용이라고 판단됩니다)
넷. 생성형(Generative) AI는 불특정한 상황 또는 불확실한 경우에 '사실에 기초하지 않고 예측적인 반응'을 제공할수도 있기 때문에 '환각 현상(할루시네이션)' 또는 허구로 여겨질 수 있는 콘텐츠에 대한 잠재적 위험이 있음을 인지해야 한다
다섯. AI 또는 AI 기반 도구의 사용 시 콘텐츠에 영향을 줄 수 있는 기업 외부의 가공 콘텐츠 및 창작물의 사용에 주의해야 한다(미드저니 혹시, 스테이블 퓨전, ChatGPT, Claude 3와 같은 도구를 일컫는 것으로 판단됩니다) 콘텐츠/미디어 제작 팀 내 책임 있는 편집자가 (앞서 언급한 도구들의) AI 사용에 대해 책임을 져야 한다
이렇게 기본적인 5가지 사항으로 요약 정리될 수 있는데요. 기본적인 목차는 아래와 같이 구성되어 있고, 외부 이해관계자 및 관련한 업무, 레퍼런스 자료가 필요한 타겟을 고려하여 Guidance Note를 다운로드 받을 수 있도록 첨부파일까지 붙여놨습니다.
1. Introduction
2. What is Artificial Intelligence (AI)?
3. Editorial issues in the use of AI
4. Algorithmic bias and training data
5. Hallucinations
6. Plagiarism and mimicry
7. Non editorial issues in the use of AI
8. Seeking guidance
9. Use cases
- Download
이번과 같이 영국의 공영 방송 채널인 BBC가 AI 가이던스 - 특히 책임있는 AI를 바라보는 입장에서 기업의 거버넌스를 구축한 것은 매우 큰 의미가 있는 행동이라고 판단됩니다. 미국 내에서 벌어지고 있는 AI 기업과 미디어 기업 간의 소송이 진행되는 과정 속에서, 콘텐츠에 대한 소유권 및 트래픽 이탈 등의 이슈가 붉거지는 상황에서 자사의 콘텐츠 및 제작되는 콘텐츠 운영에 대한 방향성을 확고히 하고, AI 및 AI 도구 활용에 대한 '실무적인 의견'을 못박는 행동이야 말로 '디지털을 잘 적용했던 유럽의 첫 사례'로 손꼽았던 BBC 다운 선택이라고 판단됩니다.
이와 맞춰, BBC가 AI를 사용하는 과정에서 발생할 수 있는 편견과 정확성 문제를 최소화하기 위한 전략들도 살짝 언급해서 그에 대한 추가 의견을 덕붙여 정리해봅니다. 책임있는 AI 및 AI윤리를 고려할 때, 참고하면 좋을 내용이라고 판단됩니다.
1. 다양한 데이터 세트 사용하기: AI 훈련에 사용되는 데이터 세트의 다양성을 확보하여 (데이터)편향을 최소화하려는 노력이 필요함. 다양한 배경, 성별, 인종 등을 포함하는 데이터를 사용하여 AI가 더 형평성 있는 결정을 내릴 수 있도록 해야 함.
2. 편향에 대한 '감지'와 '수정': AI 모델의 결정 과정에 '편향'이 존재하는지 지속적으로 모니터링하고, 발견되는 편향을 적극적으로 수정해야 함. 이를 위해 편향을 감지할 수 있는 도구 및 기술을 사용해야 함(편향을 필터링 하고, RAG 를 지속적으로 인풋하여 거짓 정보나 오류를 범하는 일이 없도록 하는 일)
3. 인간의 직간접적 개입과 감독 유지: AI가 결정하는 과정에 있어 인간의 감독을 프로세스 상에서 직간접적으로 통합함으로써 AI로 인한 잠재적 오류나 편향을 방지해야 함(분명 AI는 여러 단계 및 시간 동안 학습하지만, 비정형화된 데이터 상의 불특정한 오류가 있을시 이를 Live 하게 선형적으로 내놓을 경우 발생할 수 있는 오류를 시스템화 하여 차단 필요). 특히, 중요한 결정 과정에서 인간의 심사가 (반드시) 필수적일 것임
4. (AI for)윤리적 가이드라인 및 표준 개발: AI 사용과 관련하여 윤리적 가이드라인과 표준을 명확히 하여 (Red Team이 시나리오에 따라 대응할 수 있도록) 팀이 따라야 할 분명한 지침을 제공해야 함. 이는 (Responsible AI 또는) AI의 책임 있는 사용을 보장하고 편향과 정확성 문제를 해결하는 데 도움이 될 것임
5. 다양성과 포용성 가치 실천: AI 개발 및 관리 팀 내에서 다양성과 포용성을 촉진함으로써, 다양한 관점으로 AI의 개발과정에 포함되도록 해야 함. 팀 구성원들이 다양한 배경(지식, 살아온 배경, 학습 배경 등등 Diversity에 기준한 다양성을 존중한다는 원칙 아래)에서 오는 경우, 편향을 더 잘 인식하고 이를 해결할 수 있는 더 나은 전략을 개발할 수 있음
6. 지속적인 학습과 개선: (결국) AI와 관련된 편향과 정확성은 빠르게 변화하는 분야이기 때문에, 지속적인 교육과 학습은 필수임. 특히, (빠르게 변화하는) 최신 연구와 기술의 발전을 지속적으로 추적하고 적용하면서, AI 시스템을 최적화(Optimize) 하고 문제를 해결(Problem Solve and Advise)하는 데 필요한 지식을 유지해야 함
위의 6가지와 같은 이러한 '전략'들은 AI 및 AI 도구를 사용하는 과정에서 발생할 수 있는 편향(할루시네이션)과 정확성 문제를 최소화하는데 도움이 될 수 있다고 판단됩니다
---
BBC에서 만든 '가이드'는 AI를 사용하는 과정에서 고려해야 할 규범과 윤리적 가치에 대한 지침을 제시한 것과 동시에, AI 사용 시 공공 서비스 가치를 준수하고, 재능과 창의력을 우선시하며, 공개적이고 책임감 있게 사용해야 함을 다시 한번 더 강조한 것이 아닐까 합니다.
마지막으로, 이번 BBC의 AI 가이드 문서의 서문 중에 있는 BBC가 추구하는 AI 방향에 대한 시그니처를 마무리 텍스트로 담아봅니다.
BBC use of AI must
- never undermine the trust of audiences.
- always be transparent and accountable with effective and informed human oversight.
- always be used in a manner consistent with BBC editorial values, in particular of accuracy, impartiality, fairness and privacy.
This Guidance is intended to outline how AI can be used by the BBC, and all those who supply content to the BBC, in a manner consistent with Editorial Guidelines and the BBC’s editorial values.
---
이러한 환경의 변화에 대해 함께 고민하고, 적용 방안, 마케팅 적으로 접근하고자 하는 팀이라면 이야기 주세요. AGI의 시대에 AI윤리와 Responsible AI, 디지털 마케팅, 콘텐츠, 팀의 성장을 함께 논의 할 수 있는 파트너가 찾아뵙겠습니다.
이메일 : [email protected] | 모바일 : 010.9341.7695
트로이 대표 파트너 : 박충효