1. 생성형 AI 사용으로 인한 보안 위협의 개요
마이크로소프트와 애플은 OS 자체에 생성형 AI가 탑재돼 있는 상황을 점점 더 만들어가고 있습니다. 아이폰을 사용하기만 하면 아이폰 사용자 스마트폰에 저장돼 있는 내용을‘시리’라고 하는 비서 앱이 챗GPT 등에 전송을 할 수 있게 해 주는 기능을 결합시키고 있습니다.
이러한 기능을 비활성화할 수 있는 선택지가 지속적으로 소비자들에게 주어질 수 있도록 하는 접근이 필요합니다. 개개인의 디지털 보안 대책에 따라 달리 선택할 수 있는 문제이기 때문입니다. 어떤 사람들에게는 생성형 AI를 운영하는 업체에게 이 파일이 전송되는 그 자체는 괜찮을 수 있습니다. 이런 사람들은 단지 업체가 생성형 AI로부터 파일이 유출되지 않게 보장해 주면 된다는 입장을 취할 수 있습니다. 혹은, 생성형 AI에게 파일이 전달되는 통제권을 확보하는 것 자체가 중요하다는 관점도 있을 수 있습니다. 운영체제에 내장되어 있는 생성형 AI가 내 파일들을 보지 못하도록 하는 옵션들이 계속해서 존재하도록 그런 빅테크 기업에게 요구할 수 있어야 합니다. 즉, 빅테크 기업들이 소비자가 생성형 AI를 쓰지 않으면 서비스를 못 쓰게 하는 상황을 용인하지 않는 움직임이 중요합니다.
또, 생성형 AI가 발전한다고 하더라도 한동안은 생성형 AI가 스스로 우리 스마트폰 속에 있는 파일을 우리 허락 없이 가져갈 수 있는 상황은 단시일 내에 만들어지지 않을 겁니다. 그렇기 때문에 생성형 AI 서비스를 제공하는 기업은 나름대로 안전이 보장된다며 규제 완화를 추동할 것입니다. 이에 대해 의식적으로 생성형 AI에 대한 정보 제공을 거부하도록, 의도적으로 일일이 허용하지 않으면 기본적으로 생성형 AI에게 내 파일이 전달되지 않는 게 기본값이 되도록 계속해서 규제당국에 의견을 개진해야 합니다.
한편 생성형 AI의 학습 데이터 편향이 큰 이슈가 되는 지금, 어떻게 해야 인권 담론 등이 생성형 AI의 출력 결과물에 잘 반영되게 할 수 있는지도 중요한 주제입니다. 생성형 AI가 어떻게 해야 조금 더 우리의 인권 담론 등을 조금 더 잘 이해하도록 훈련할 수 있는지, 혹시 생성형 AI 자체가 반인권적인 관념을 허용하는 방향으로 가고 있는 건 아닌지, 생성형 AI의 공급 업체가 그 업체의 직원들이 판단하는 윤리관에 입각하여 훈련되는지를 되짚어볼 필요가 있습니다.
생성형 AI 시대에 우리의 파일을 안전하게 관리할 수 있는 방법은 결국 다른 디지털 보안 대책과 크게 다르지 않습니다. 생성형 AI에게 우리 파일을 허락하지 않는 게 중요합니다. 생성형 AI가 파일을 허락 없이 가져갈 수 없는 상황이 유지되도록 규제하는 게 중요합니다.
또한 디지털 보안 가이드의 <사례: 화상회의 참가자 모두가 딥페이크>에서 살펴본 것처럼 공격자는 생성형 AI를 사용하여 화상회의나 통화, 이메일, 메신저 등의 소통에서 좀더 정밀하게 타인을 사칭할 수 있습니다. 이러한 디지털 보안 침해 공격에 생성형 AI가 사용되지 않도록 생성형 AI 서비스를 제공하는 기업들이 안전장치를 마련할 것을 촉구하고, 동시에 규제되지 않는 생성형 AI 도구에 기반한 사칭 공격의 피해를 입지 않도록 소통에 주의를 기울여야 합니다.