3장. 시민사회 생성형 AI 정책 모델

[단체명] 생성형 AI 활용 정책 

1. 총칙 

1) 목적  

이 정책은 우리 단체가 생성형 AI(Generative AI) 기술을 단체의 활동 목적과 인권 원칙을 준수하면서 책임감있고 효과적으로 사용하기 위한 기준과 절차를 정하는 것을 목적으로 한다.
(해설 읽으러가기)

2) 기본 원칙 

우리는 생성형 AI 기술을 사용할 때 다음과 같은 원칙을 준수한다. 

① 생성형 AI를 사용하여 만들어진 결과물과 의사결정에 대한 모든 책임은 우리 단체에게 있다. 

② 생성형 AI는 보조적인 도구일 뿐이며, 활동가의 판단과 숙련을 대체하지 않는다. 

③ 생성형 AI의 결과물은 소수자 및 취약계층에 대한 어떠한 형태의 편향이나 차별을 포함하거나, 기본권에 부정적인 영향을 미치지 않아야 한다. 

④ 생성형 AI 활용 과정에서 개인정보와 보안이 침해되지 않아야 한다. 

⑤ 생성형 AI가 결과물 생성에 핵심적으로 기여했거나 혼동을 야기할 우려가 있는 경우, 생성형 AI의 활용 여부 및 방식을 투명하게 공개한다.

⑥ 생성형 AI 기술의 발전이 환경과 노동에 미치는 영향을 고려한다. 
(해설 읽으 가기)

3) 이 정책의 범위

이 정책은 우리 단체가 외부의 상용 생성형 AI 서비스를 이용하는 경우를 대상으로 한다. 단체가 AI 도구를 직접 개발 제공하거나 생성형 AI가 아닌 다른 종류의 AI 도구를 이용하는 경우에는 별도의 원칙과 지침을 마련한다. 
(해설 읽으러 가기)

2. 생성형 AI 활용 지침 

1) 정보의 정확성 확인

생성형 AI의 결과물은 부정확한 정보를 포함할 수 있으므로, 반드시 신뢰할 수 있는 방식으로 정확성을 확인해야 한다.

① 사실관계가 중요한 업무에서는 생성형 AI 활용에 특별한 주의가 필요하다

② 인터넷 검색, 전문가 자문 등 다양한 출처를 통해 사실관계를 교차검증한다. 

③ 데이터나 자료가 최신 정보인지 확인한다. 

④ 권위있는 출처나 공식 문서를 우선적으로 참조한다. 

⑤ 최근 정보를 반영한 AI의 결과물(예 : 웹검색 기반 AI 결과물)을 우선적으로 활용한다. 

⑥ 명확하고 구조화된 프롬프트를 사용하고 출처를 제공할 것을 요구한다. 

⑦ 원본을 직접 읽지 않은 상태에서 요약 기능만 사용하는 것은 주의해야 한다. 
(해설 읽으러 가기)

2) 편향 및 고정관념(stereotype)에 대한 비판적 검토 

AI는 기존의 데이터를 학습하고 이를 모방하기 때문에, 생성형 AI의 결과물이 기존 현실의 편견, 편향, 고정관념을 그대로 반영할 수 있으므로, 이러한 결과물이 공개되거나 사용되지 않도록 주의해야 한다.

① 활동가가 생성형 AI 결과물의 편향·차별 표현을 인식할 수 있도록 정기적인 인권 교육을 시행한다. [또는 AI 결과물 검토 담당자를 지정한다] 

② 생성형 AI 활용 과정에서 문제가 될 수 있는 표현이 발견되면, 즉시 사용을 중지하고 [검토 담당자]에게 전달한다. 

③ 생성형 AI에 차별적이지 않은 내용으로 다시 작성해줄 것을 요구하고, 그 결과물을 다시 검토한다. 

④ 해당 생성형 AI를 서비스하는 업체에 발생한 문제에 대해 신고한다. 

⑤ 차별적, 혐오적 표현을 반복적으로 생성할 경우, 해당 생성형 AI의 사용을 중단한다.

⑥ 생성형 AI에만 의존하지 않고 다른 경로를 통한 정보와 관점의 수집을 검토한다. 
(해설 읽으러 가기)

3) 개인정보 보호 및 보안 

상용 생성형 AI 서비스를 이용할 경우, 프롬프트로 입력한 데이터는 AI 업체의 서버에 저장되므로 무단 접근 및 유출과 같은 보안 문제가 발생할 수 있다. 또한, 이 데이터가 모델 재학습에 사용될 경우 다른 이용자의 출력물을 통해 개인정보나 기밀정보가 유출될 가능성도 있다. 이에 정당한 법적 근거없이 개인정보가 처리되거나 단체의 기밀 정보가 유출되지 않도록 보안에 주의해야 한다. 

① 프롬프트를 통해 주민등록번호, 신용카드번호, 비밀번호, 민감정보(생체정보, 성적지향 등)와 같은 개인정보를 올리지 않는다. 

② 생성형 AI를 통한 개인정보의 분석이 필요할 경우 가명처리를 해야 한다. 

③ 보안 등급에 따라 높은 수준의 보안이 필요한 기밀자료(예 : 피해자 인터뷰, 비공개 회의록, 회계기록 등)를 프롬프트를 통해 올리지 않는다. 

④ 생성형 AI 서비스의 이용약관, 개인정보 처리방침, 보안 정책을 확인하여, 데이터 보관 기간, 프롬프트로 입력된 데이터를 AI 학습에 사용하는지 여부, 개인정보보호법 등 관련 법 준수 여부, 암호화 등 보안정책, 요금제별 보안 수준의 차이를 파악한다. 가능하면 학습 데이터 활용을 거부(옵트아웃)하는 옵션이나 해당 기능이 포함된 요금제를 선택한다. 

⑤ 생성형 AI를 통해 공유한 데이터는 정기적으로 백업하고 삭제한다. 

⑥ 생성형 AI가 다른 애플리케이션이나 외부의 API와 연계될 경우, 그 과정에서 불필요한 개인정보나 데이터가 전송되지 않도록, 전송되는 데이터의 범위를 확인한다. 

⑦ 업무용 계정과 개인용 계정을 분리하여 사용한다. 
(해설 읽으러 가기)

4) 저작권 

생성형 AI 사용시 여러 측면에서 저작권 침해 위험이 있다. 사회적으로는 저작권자의 데이터를 허락없이 AI 학습 데이터로 사용할 수 있는지가 논란이 되고 있지만, 이는 이용자가 통제할 수 없는 부분이다. 다만, 학습에 사용된 개인정보나 저작물이 모델에 암기되어 결과물에 반영될 수 있기 때문에, 생성형 AI의 결과물이 학습에 사용된 저작물과 상당히 유사하게 생성될 경우, 이용자의 의도와 무관하게 저작권 침해 책임을 질 수 있다. 

① 생성형 AI의 결과물(특히, 이미지나 오디오)이 의도하지 않게 저작권을 침해할 수 있으므로 주의한다. 사용하기 전에 유사한 저작물이 있는지 검색(예 : 이미지 검색)해본다. 

② 생성형 AI 결과물을 재료로 사람이 직접 상당한 수정·편집을 거쳐 활용한다.
(해설 읽으러 가기)

5) 생성형 AI 활용의 투명성

생성형 AI를 사용하는 사실을 수용자들이 인지하지 못해 오해나 혼란을 야기할 우려가 있을 경우, 해당 결과물이 생성형 AI를 통해 만들어졌음을 표시한다.

① 생성형 AI를 활용한 분석, 또는 생성형 AI로 제작한 음악, 이미지, 영상 등 생성형 AI가 결과물 생성에 핵심적으로 기여한 경우, 해당 저작물이 생성형 AI에 의해 만들어졌다는 사실을 표시한다.  

② 딥페이크와 같이 생성형 AI를 이용해 현실과 혼동될 수 있는 결과물을 생성한 경우, 그 사실을 저작물에 표시한다. 다만, 예술적·창작적 저작물의 경우, 감상을 저해하지 않는 방식으로 표시할 수 있다. 

③ 챗봇, 동시통역 도구 등 외부 사람과 직접적으로 상호작용하는 생성형 AI의 경우, 사람들이 자신과 상호작용하고 있는 대상이 AI라는 점을 명확하게 인지할 수 있도록 알린다. 

④ 홈페이지 등을 통해 본 단체의 생성형 AI 정책을 공개한다. 
(해설 읽으러 가기)

6) AI가 환경에 미치는 영향에 대한 고려 

생성형 AI의 확대에 따라 데이터센터 운영을 위한 전력사용량과 물 사용의 증가, AI를 위한 반도체 생산 등 자원사용량이 증가하고 있다. 이에 환경에 미치는 부정적 영향을 최소화할 수 있는 방식으로 AI를 활용한다. 

① 감사인사 등 불필요한 대화 또는 에너지를 많이 사용하는 이미지·음성·영상 처리 요청을 지양한다. 

② 동일한 자료를 재요청하는 경우가 많을 때는 생성된 결과물의 재활용, 단체 구성원간 결과물 공유 등을 통해 불필요한 반복 요청을 최소화한다.

③ 생성형 AI가 아니어도 처리가 가능한 업무는 적합한 다른 도구를 우선 활용한다.

④ 가능하다면 경량 AI 모델을 사용한다.

⑤ AI 운영을 위한 데이터센터의 환경영향평가, 전력사용량, 에너지효율 등의 정보공개, 친환경 재생에너지 사용 등 친환경 정책을 실천하는 기업의 제품을 사용한다.
(해설 읽으러 가기)

3. 정책의 수립과 집행 

1) 생성형 AI 사용 승인  

① 단체의 사업 목적으로 생성형 AI를 사용하기 위해서는 [운영위원회]의 승인을 거쳐야 한다. 

② 특정 생성형 AI 사용을 승인하기 전에, 해당 AI 서비스의 성능, 적절한 요금제, 필요한 설정 등 사용 정책을 마련한다. 

③ AI 책임자는 본 단체에서 활용하는 생성형 AI의 목록을 관리하고, 변경시 구성원에게 공지한다. 

④ 생성형 AI로 인해 업무를 대체하거나 변경할 필요가 있을 경우, 단체의 구성원과 사전에 협의한다.
(해설 읽으러 가기)

2) 생성형 AI 활용이 허용되는 활용의 범위 

AI 책임자는 본 단체에서 생성형 AI의 활용이 허용되는 사례, 허용되지 않는 사례, 또는 엄격한 검토가 필요한 활용 사례를 문서로 관리한다. 
(해설 읽으러 가기)

3) 교육 및 역량 강화 

① 모든 구성원이 본 정책을 숙지하고, AI 관련 최신 동향에 대해 인지할 수 있도록 [1년에 1회 이상] 구성원에 대한 AI 교육을 시행한다.
② 업무상 필요한 도구의 사용법에 대한 교육의 일환으로, 생성형 AI의 사용법에 대한 교육을 시행한다. 

③ 단체 구성원의 역량 강화를 위해 필요할 경우, 업무 수행 과정에서 생성형 AI의 도움을 받는 것을 제한할 수 있다.
(해설 읽으러 가기)

4) 외부 파트너와의 협력 

다른 단체 또는 외부 사람들과 협업을 하거나, 기고를 받는 등 단체의 활동을 위해 협력할 때, 생성형 AI 활용 정책에 대해 외부 사람에게 사전에 고지하거나, 해당 정책에 대해 협의해야 한다.
(해설 읽으러 가기)

5) 문제발생 시 조치 

① 생성형 AI와 관련되어 문제가 발생할 경우 즉시 ‘AI 책임자’에게 보고한다. 보고에는 다음과 같은 내용을 포함한다 : 발생 일시 / 사용 도구명 / 해당 결과물 / 문제가 된 부분 / 프롬프트 입력 내용 / 부정적 영향의 내용과 범위 

② AI 책임자는 즉시 사실을 확인하고, 필요할 경우 피해 확산을 방지하기 위한 긴급조치를 취한다. 

③ AI 책임자는 [운영위원회]를 소집하여 단체의 대응 방안을 수립한다. 이를 위해 문제의 원인, 영향의 범위, 단체의 책임 유무 및 범위, 관련 법제 및 법적 대응의 필요성 등을 검토한다.  

④ 필요할 경우 적절한 방식으로 해당 사안에 대해 외부에 공지한다. 공지에는 문제의 내용 및 원인, 영향을 받는 당사자, 단체의 대응 조치, 재발 방지 조치 등이 포함될 수 있다. 

⑤ 필요할 경우 적절한 방식으로 영향을 받는 당사자에게 사과문을 전달한다. 사과문에는 문제의 내용 및 원인, 단체의 대응 조치, 피해 구제 및 보상, 재발 방지 조치 등이 포함될 수 있다. 

⑥ 재발 방지 대책을 수립하고 필요하다면 본 정책에 반영한다 

⑦ AI 책임자는 본 사안에 관련된 모든 내용과 과정을 기록한다.
(해설 읽으러 가기)

6) AI 책임자와 감독 

① 본 단체의 책임있는 AI의 활용과 감독을 위해 ‘AI 책임자’를 둔다. 본 단체의 AI 책임자는 [       ] 이다.

② 생성형 AI의 결과물이 본 단체의 정책에 부합하지 않거나, 본 정책을 위반하는 사례가 있을 경우 AI 책임자에게 보고한다. 

③ 단체 구성원이 본 정책을 위반할 경우 내부 징계 절차에 따른다. 
(해설 읽으러 가기)

7) 정책의 변경 

① AI 기술의 급속한 발전을 고려하여 본 정책은 AI 책임자가 필요하다고 판단할 경우, 또는 최소한 연 1회 재검토 및 업데이트 되어야 한다. 

② AI가 단체에 미치는 영향에 대해 정기적으로 평가한다. 

③ 본 정책에 대해 논의할 때 모든 구성원이 참여할 수 있도록 한다.
(해설 읽으러 가기)