한국일보에서 언론사 최초로 발표한 <생성형 AI 활용 준칙> (2024) 자료입니다. 자세한 내용은 아래 내용을 확인하시기 바랍니다.
[자료출처] 한국일보 홈페이지(https://www.hankookilbo.com/Notice/Read/150)
[자료제목] 한국일보 생성형 AI 활용 준칙
[한국일보 생성형 AI 활용 준칙]
생성형 인공지능(AI)은 뉴스의 생산과 유통, 저널리즘 이론과 실천에 변화를 가져올 전환점이다. 이 혁신적 도구는 워드, 디지털카메라, 컴퓨터 조판이 그러했듯 언론 업무를 개선하고 효율화할 것이나 정확성, 다양성, 독립성과 같은 저널리즘 가치는 그와 무관하게 지켜져야 한다. 한국일보는 더 나은 정보 수집과 가공, 소통, 생산성 향상을 위해 생성형 AI를 실험하고 활용할 것이다. 동시에 AI 기술의 한계로 인해 신뢰 손상, 편파 보도, 개인정보와 저작권 침해 문제가 발생할 수 있음을 인식하고 대응한다. 뉴스의 품질과 독창성, 관점 등에 대한 책임은 언제나 한국일보에 있다. 인간 기자를 대체하는 것이 아니라 확장하는 도구로서 생성형 AI를 사용할 것을 명확히 한다. 본 준칙은 생성형 AI를 책임 있게 사용하는 기준을 제시함으로써 한국일보가 저널리즘 원칙을 존중하면서 디지털 혁신을 이루는 것을 목적으로 한다.
제1조 책무성
①생성형 인공지능(AI)으로 제작, 보도한 뉴스(텍스트 기사, 이미지, 영상 등 모든 형태의 뉴스)는 한국일보 편집강령에 부합해야 한다. 한국일보는 뉴스 제작과 뉴스이용자 서비스에 생성형 AI를 활용할 때 관련 법규를 준수하고 뉴스이용자의 문제 제기에 설명하고 대응할 책임을 진다.
제2조 인간의 감독
①감독 원칙: 생성형 AI는 기술적 한계와 데이터 편향으로 정확성, 공정성 등을 보장할 수 없으므로 뉴스 제작 구성원의 사실 확인, 검토, 수정 등 관여 없이 AI를 활용한 뉴스를 보도해서는 안 된다.
②사실 확인 책임: AI 생성물(문장, 그래픽, 영상 등)은 검증되지 않은 정보로 간주해야 하며 기자, PD 등 뉴스 제작자가 사실 확인의 책임을 진다. 입수 자료를 보도할 때도 생성형 AI로 조작된 정보가 아닌지 확인하기 위해 출처 확인, 주요 언론 보도와 비교 등을 거친다.
③저작권 보호: AI 생성물은 저작권 침해 소지가 있으므로 역 검색, 표절 검사 프로그램 등을 통해 저작권 침해 여부를 확인하도록 노력한다. 저작권 침해가 확인된 경우 즉시 삭제, 정정보도 등 조치를 취한다.
제3조 허용 범위와 제한
①허용 범위: 생성형 AI는 △아이디어 추출, 정보 검색 등 기획과 자료 조사 △문장이나 이미지 생성, 제목 추출, 요약, 번역 등 뉴스 제작 △기사 분류, 연관기사 검색, 오탈자 체크 등 뉴스 제작의 보조적 기능 △뉴스이용자 개인화 서비스 등의 언론 업무에 활용할 수 있다. 활용 사실은 제4조 투명성 원칙에 따라 공개한다.
②글쓰기 제한: AI가 생성한 문장을 검토나 수정 없이 보도하지 않는다. 기사는 기자의 독창적 기획·취재·글쓰기의 종합적 산물임을 인식하고 창의적 글쓰기를 생성형 AI로 대체하지 않도록 유의한다.
③현실 오인 방지: 현장 보도를 위한 사진·오디오·영상에 생성형 AI를 이용해 어떤 요소를 추가·삭제해서는 안 된다. 인포그래픽 목적 등 필요한 경우 생성형 AI로 현장을 재구성할 수 있으나 그것이 현실을 기록한 것으로 오인하게 보도해서는 안 된다. 실물과 실존 인물 촬영은 언론의 핵심적인 사실 보도 영역임을 인식하고 AI 생성물로 실사를 대체하지 않도록 유의한다.
④준법·윤리적 실험: 뉴스 제작 목적이 아닌 다양한 실험을 위해 생성형 AI를 사용할 경우에도 법적·윤리적 기준을 위배하지 않아야 한다.
제4조 투명성
①공개 원칙: 생성형 AI를 △문장이나 이미지 생성, 제목 추출, 요약, 번역 등 뉴스 제작 △뉴스이용자 개인화 서비스에 활용한 경우 이 사실을 투명하게 밝혀야 한다. 뉴스 생산을 위해 AI에 입력한 데이터도 취재원·출처 공개와 같은 수준으로 공개한다.
②공개의 예외: 생성형 AI를 △아이디어 추출, 정보 검색 등 기획과 자료 조사 △기사 분류, 연관기사 검색, 오탈자 체크 등 뉴스 제작의 보조적 기능에 이용한 사실은 밝히지 않을 수 있다. 생성형 AI를 뉴스 제작에 활용했더라도 최종 뉴스 내용에 반영된 정도가 미미한 경우 즉 기자 바이라인을 넣지 않을 정도의 작업인 경우에는 활용 사실을 밝히지 않을 수 있다.
③공개 방식: 기사에 AI의 기여 명시, 이미지와 영상에 워터마크와 자막 표시, 한국일보 웹사이트 등 뉴스 유통 채널에 정보 제공 등 다양한 방식으로 AI 활용 사실을 공개해 투명성을 실현한다.
④공개 절차: AI가 생성한 내용을 뉴스에 포함한 경우 데스크(부서장)에 보고하고 공개 대상에 해당하는지 최종 판단은 데스크(부서장)가 한다. 판단이 어려운 경우 뉴스스탠다드실에 자문한다.
제5조 다양성과 포용성
①AI 생성물이 편향과 차별, 혐오를 포함할 수 있다는 것에 유념한다. 생성형 AI를 활용한 뉴스에 다양한 이해관계자의 시각이 반영됐는지, 소수 집단의 목소리가 배제되지 않았는지, 차별적 표현과 관점이 포함되지 않았는지 확인하고, 균형 보도, 다양성·포용성 원칙에 맞도록 수정해야 한다.
제6조 개인정보 보호와 기밀 유지
①개인정보와 기밀 보호: 민감한 개인정보, 공개해서는 안 되는 기밀정보를 생성형 AI에 입력하지 않도록 주의한다.
②뉴스이용자 권리 보호: 생성형 AI를 이용한 뉴스이용자 개인화 서비스를 제공할 경우 뉴스이용자의 개인정보 보호를 최우선시하고 서비스 이용 선택권을 제공할 수 있다.
제7조 신뢰성 제고 책임
①보안 대책: 생성형 AI 개발사 등 협력업체에 개인정보나 기밀이 유출되지 않게 하기 위한 보안 대책을 적용해야 한다.
②오류와 편향 수정: 뉴스이용자 서비스 등에 적용된 생성형 AI의 알고리즘이나 데이터에 오류나 편향이 발견될 경우 정정할 수 있는 절차를 마련한다. 이 절차에는 기술 검사, 전문가 검토, 사용자 피드백 수집이 포함돼야 한다.
③교육과 훈련: 발전하는 생성형 AI 기술을 효과적으로 활용할 수 있도록, 또한 기술의 한계와 위험을 파악하고 대응할 수 있도록 교육과 훈련을 실행한다.
제8조 기술 적응과 준칙 개정
①기술 적응 및 정책 최신화: 생성형 AI 기술의 발전에 따라 업무 환경이 전면적으로 변화하거나 법적·윤리적 문제가 복잡해질 수 있으며, 강화된 준칙 실행이 필요할 수 있음을 인식한다. 이에 따라 관련 정책 수립, 실행 시스템 고도화, 교육과 훈련 강화에 지속적으로 힘쓴다.
②준칙 개정: 본 준칙은 한국일보 편집강령에 준하며 개정 시 편집강령 규정을 따른다.
한국일보에서 언론사 최초로 발표한 <생성형 AI 활용 준칙> (2024) 자료입니다. 자세한 내용은 아래 내용을 확인하시기 바랍니다.
[자료출처] 한국일보 홈페이지(https://www.hankookilbo.com/Notice/Read/150)
[자료제목] 한국일보 생성형 AI 활용 준칙
[한국일보 생성형 AI 활용 준칙]
생성형 인공지능(AI)은 뉴스의 생산과 유통, 저널리즘 이론과 실천에 변화를 가져올 전환점이다. 이 혁신적 도구는 워드, 디지털카메라, 컴퓨터 조판이 그러했듯 언론 업무를 개선하고 효율화할 것이나 정확성, 다양성, 독립성과 같은 저널리즘 가치는 그와 무관하게 지켜져야 한다. 한국일보는 더 나은 정보 수집과 가공, 소통, 생산성 향상을 위해 생성형 AI를 실험하고 활용할 것이다. 동시에 AI 기술의 한계로 인해 신뢰 손상, 편파 보도, 개인정보와 저작권 침해 문제가 발생할 수 있음을 인식하고 대응한다. 뉴스의 품질과 독창성, 관점 등에 대한 책임은 언제나 한국일보에 있다. 인간 기자를 대체하는 것이 아니라 확장하는 도구로서 생성형 AI를 사용할 것을 명확히 한다. 본 준칙은 생성형 AI를 책임 있게 사용하는 기준을 제시함으로써 한국일보가 저널리즘 원칙을 존중하면서 디지털 혁신을 이루는 것을 목적으로 한다.
제1조 책무성
①생성형 인공지능(AI)으로 제작, 보도한 뉴스(텍스트 기사, 이미지, 영상 등 모든 형태의 뉴스)는 한국일보 편집강령에 부합해야 한다. 한국일보는 뉴스 제작과 뉴스이용자 서비스에 생성형 AI를 활용할 때 관련 법규를 준수하고 뉴스이용자의 문제 제기에 설명하고 대응할 책임을 진다.
제2조 인간의 감독
①감독 원칙: 생성형 AI는 기술적 한계와 데이터 편향으로 정확성, 공정성 등을 보장할 수 없으므로 뉴스 제작 구성원의 사실 확인, 검토, 수정 등 관여 없이 AI를 활용한 뉴스를 보도해서는 안 된다.
②사실 확인 책임: AI 생성물(문장, 그래픽, 영상 등)은 검증되지 않은 정보로 간주해야 하며 기자, PD 등 뉴스 제작자가 사실 확인의 책임을 진다. 입수 자료를 보도할 때도 생성형 AI로 조작된 정보가 아닌지 확인하기 위해 출처 확인, 주요 언론 보도와 비교 등을 거친다.
③저작권 보호: AI 생성물은 저작권 침해 소지가 있으므로 역 검색, 표절 검사 프로그램 등을 통해 저작권 침해 여부를 확인하도록 노력한다. 저작권 침해가 확인된 경우 즉시 삭제, 정정보도 등 조치를 취한다.
제3조 허용 범위와 제한
①허용 범위: 생성형 AI는 △아이디어 추출, 정보 검색 등 기획과 자료 조사 △문장이나 이미지 생성, 제목 추출, 요약, 번역 등 뉴스 제작 △기사 분류, 연관기사 검색, 오탈자 체크 등 뉴스 제작의 보조적 기능 △뉴스이용자 개인화 서비스 등의 언론 업무에 활용할 수 있다. 활용 사실은 제4조 투명성 원칙에 따라 공개한다.
②글쓰기 제한: AI가 생성한 문장을 검토나 수정 없이 보도하지 않는다. 기사는 기자의 독창적 기획·취재·글쓰기의 종합적 산물임을 인식하고 창의적 글쓰기를 생성형 AI로 대체하지 않도록 유의한다.
③현실 오인 방지: 현장 보도를 위한 사진·오디오·영상에 생성형 AI를 이용해 어떤 요소를 추가·삭제해서는 안 된다. 인포그래픽 목적 등 필요한 경우 생성형 AI로 현장을 재구성할 수 있으나 그것이 현실을 기록한 것으로 오인하게 보도해서는 안 된다. 실물과 실존 인물 촬영은 언론의 핵심적인 사실 보도 영역임을 인식하고 AI 생성물로 실사를 대체하지 않도록 유의한다.
④준법·윤리적 실험: 뉴스 제작 목적이 아닌 다양한 실험을 위해 생성형 AI를 사용할 경우에도 법적·윤리적 기준을 위배하지 않아야 한다.
제4조 투명성
①공개 원칙: 생성형 AI를 △문장이나 이미지 생성, 제목 추출, 요약, 번역 등 뉴스 제작 △뉴스이용자 개인화 서비스에 활용한 경우 이 사실을 투명하게 밝혀야 한다. 뉴스 생산을 위해 AI에 입력한 데이터도 취재원·출처 공개와 같은 수준으로 공개한다.
②공개의 예외: 생성형 AI를 △아이디어 추출, 정보 검색 등 기획과 자료 조사 △기사 분류, 연관기사 검색, 오탈자 체크 등 뉴스 제작의 보조적 기능에 이용한 사실은 밝히지 않을 수 있다. 생성형 AI를 뉴스 제작에 활용했더라도 최종 뉴스 내용에 반영된 정도가 미미한 경우 즉 기자 바이라인을 넣지 않을 정도의 작업인 경우에는 활용 사실을 밝히지 않을 수 있다.
③공개 방식: 기사에 AI의 기여 명시, 이미지와 영상에 워터마크와 자막 표시, 한국일보 웹사이트 등 뉴스 유통 채널에 정보 제공 등 다양한 방식으로 AI 활용 사실을 공개해 투명성을 실현한다.
④공개 절차: AI가 생성한 내용을 뉴스에 포함한 경우 데스크(부서장)에 보고하고 공개 대상에 해당하는지 최종 판단은 데스크(부서장)가 한다. 판단이 어려운 경우 뉴스스탠다드실에 자문한다.
제5조 다양성과 포용성
①AI 생성물이 편향과 차별, 혐오를 포함할 수 있다는 것에 유념한다. 생성형 AI를 활용한 뉴스에 다양한 이해관계자의 시각이 반영됐는지, 소수 집단의 목소리가 배제되지 않았는지, 차별적 표현과 관점이 포함되지 않았는지 확인하고, 균형 보도, 다양성·포용성 원칙에 맞도록 수정해야 한다.
제6조 개인정보 보호와 기밀 유지
①개인정보와 기밀 보호: 민감한 개인정보, 공개해서는 안 되는 기밀정보를 생성형 AI에 입력하지 않도록 주의한다.
②뉴스이용자 권리 보호: 생성형 AI를 이용한 뉴스이용자 개인화 서비스를 제공할 경우 뉴스이용자의 개인정보 보호를 최우선시하고 서비스 이용 선택권을 제공할 수 있다.
제7조 신뢰성 제고 책임
①보안 대책: 생성형 AI 개발사 등 협력업체에 개인정보나 기밀이 유출되지 않게 하기 위한 보안 대책을 적용해야 한다.
②오류와 편향 수정: 뉴스이용자 서비스 등에 적용된 생성형 AI의 알고리즘이나 데이터에 오류나 편향이 발견될 경우 정정할 수 있는 절차를 마련한다. 이 절차에는 기술 검사, 전문가 검토, 사용자 피드백 수집이 포함돼야 한다.
③교육과 훈련: 발전하는 생성형 AI 기술을 효과적으로 활용할 수 있도록, 또한 기술의 한계와 위험을 파악하고 대응할 수 있도록 교육과 훈련을 실행한다.
제8조 기술 적응과 준칙 개정
①기술 적응 및 정책 최신화: 생성형 AI 기술의 발전에 따라 업무 환경이 전면적으로 변화하거나 법적·윤리적 문제가 복잡해질 수 있으며, 강화된 준칙 실행이 필요할 수 있음을 인식한다. 이에 따라 관련 정책 수립, 실행 시스템 고도화, 교육과 훈련 강화에 지속적으로 힘쓴다.
②준칙 개정: 본 준칙은 한국일보 편집강령에 준하며 개정 시 편집강령 규정을 따른다.