1장. 생성형 AI 관련 주요 개념

이 장에서는 생성형 AI를 둘러싼 개념 몇 가지를 소개합니다. 처음부터 읽어도 되고, 궁금한 키워드가 있을 때 하나씩 살펴보는 용도로 이용해도 좋습니다.

인공지능(AI, Artificial Intelligence)

‘인공지능’은 다양한 의미로 쓰이는, 꽤 느슨한 개념입니다. 컴퓨터 과학의 세부 분과로서 인공지능은 학습/추론/지각 등 인간의 지적 능력을 인공적으로 구현하는 것을 목적으로 합니다. 그런 목적으로 구현된 시스템이나, 구현을 위한 방법론 등을 가리키기도 합니다. 

2026년 1월 시행되는 인공지능기본법에서는 인공지능을 다음과 같이 정의합니다.

  • “인공지능”: 학습, 추론, 지각, 판단, 언어의 이해 등 인간이 가진 지적 능력을 전자적 방법으로 구현한 것
  • “인공지능시스템”: 다양한 수준의 자율성과 적응성을 가지고 주어진 목표를 위하여 실제 및 가상환경에 영향을 미치는 예측, 추천, 결정 등의 결과물을 추론하는 인공지능 기반 시스템

우리가 일상 대화에서 이야기하는 ‘인공지능’은 보통 개별적으로 구현된 시스템(예: 챗지피티)이나, AI 기술 분야 전반을 지칭합니다. 최근 통용되는 ‘인공지능’은 생성형 AI 기술을 가리키는 경우가 많지만, 추천 시스템이나 채용 알고리즘 등 비-생성형 기계학습 기술도 인공지능에 포함됩니다. 그런가 하면, 지도에서 최적의 이동경로를 찾는 일은 한때 인공지능 분야의 중요한 문제였지만 오늘날 지도 앱의 ‘길찾기’ 기능을 보고 ‘인공지능’이라고 표현하는 경우는 많지 않습니다. 이처럼 무엇을 ‘인공지능’이라고 부르는지는 시대와 맥락에 따라 달라지기에 용어 사용시 그 지칭 대상을 의식적으로 명확히 할 필요가 있습니다.

기계학습 (머신러닝 Machine Learning)

생성형 인공지능은 기계학습 기법으로 구현합니다. 그렇다면 기계학습은 무엇일까요? 데이터를 바탕으로 통계 알고리즘(‘모델’)을 ‘학습’하고, 학습한 적 없는 데이터를 처리할 수 있는 능력을 확보(일반화)하여 명시적 지침 없이도 기능을 수행할 수 있게끔 하는 일련의 기법으로 정의할 수 있습니다. 

기계학습은 컴퓨터가 데이터를 바탕으로 패턴을 ‘학습’해 예측이나 결정을 내리는 기술입니다. 예를 들어, 음악 추천 서비스가 사용자의 취향을 알아내거나, 스팸 메일 필터가 정상 메일을 구분하는 것이 기계학습의 결과물입니다. 명시적인 프로그래밍 없이 데이터 자체에서 규칙을 찾아내는 ‘데이터 기반 자동화 기술’이라고도 할 수 있습니다. 

일반 프로그래밍과 기계학습의 차이

인공신경망 (Artificial Neural Network)

기계학습 알고리즘의 한 유형입니다. 인간의 뇌가 뉴런을 연결해 정보를 처리하는 방식에서 영감을 받았지만, 실제 생물학적 구조와는 차이가 있습니다. 수많은 단순한 처리 단위(‘뉴런’, 일종의 간단한 함수)가 계층적으로 연결되어 커다란 하나의 함수(신경망)를 구성합니다. 뉴런 간의 연결은 각각 가중치를 가지며, 이 가중치를 조정해 패턴을 인식하거나 예측하는 능력을 개선하는 과정을 ‘학습’이라고 부릅니다.

딥러닝 (Deep Learning) 

인공신경망을 여러 겹으로 쌓아 복잡한 패턴을 처리하는 기계학습 기법입니다. 딥러닝(심층학습)이란 이름은 인공신경망이 여러 층(레이어)으로 구성되어 있는 구조를 지칭합니다. 이같은 다층 구조 설계와 대규모 데이터 학습을 통해, 이미지 인식이나 긴 텍스트 속 단어 간 관계를 파악하는 등 기존에는 인공지능으로 처리하기 어려웠던 과업에 대한 성능이 현저히 개선되었습니다. 생성형 인공지능은 대부분 딥러닝을 기반으로 작동합니다. 

단순화한 딥러닝 모델 구조 예시

생성형 인공지능 (Generative AI)

생성형 인공지능은 이용자의 입력(‘프롬프트’)을 바탕으로 텍스트, 이미지, 음성, 영상 등 콘텐츠를 만드는 기술입니다. 생성형 인공지능은 대량의 데이터에 기계학습 기법을 적용하여 만든 ‘모델’을 엔진 삼아 작동하며, 널리 쓰이는 상용 생성형 인공지능 도구에서는 보통 채팅 인터페이스를 통해 이러한 모델과 상호작용하게 됩니다.

인공지능의 여러 유형 간의 관계

자연어처리 (NLP, Natural Language Processing)

인간의 언어(텍스트 또는 음성)를 컴퓨터를 활용해 이해·해석·생성할 수 있도록 하는 분야를 자연어처리라 부릅니다. 구문 분석, 기계번역, 고유명사 등 개체명 인식, 음성 인식 등 다양한 자연어처리 과업 유형이 있으며,챗봇 등의 생성형 인공지능이 수행하는 기능 즉 대량의 텍스트 데이터를 학습해 문맥에 맞는 자연스러운 글을 생성하는 일 또한 자연어처리의 한 예시로 이해할 수 있습니다.

거대언어모델 (LLM, Large Language Model)

거대언어모델은 방대한 텍스트 데이터를 학습해 언어를 해석하거나 생성하는 인공지능 모델입니다. 생성형 AI의 핵심 기술로, 일반적으로 수십억 개 이상의 매개변수(연결 가중치)를 지닌 인공신경망을 활용해 문장 내 단어 간 복잡한 패턴을 학습합니다. 예를 들어, “오늘 날씨가”라는 입력에 “맑습니다”라는 단어를 예측하듯, 문맥을 분석해 자연스러운 문장을 완성하거나 질문에 답변하는 기능을 수행합니다. 챗지피티(ChatGPT) 같은 생성형 AI 서비스의 기반이 되는 기술입니다.

파운데이션 모델

파운데이션 모델(기반 모델)은 방대한 데이터로 사전 학습되어 다양한 작업에 활용할 수 있는 대규모 인공지능 모델을 부르는 용어입니다. 생성형 인공지능 분야에서 텍스트 생성, 이미지 제작, 음성 합성 등 특정 과업에 맞춰 미세 조정(fine-tuning)되기 전 ‘기반’이 되는 모델을 의미합니다. 예를 들어, GPT-4나 Stable Diffusion은 각각 언어·이미지 생성을 위한 대표적인 파운데이션 모델로, 챗지피티 등 생성형 AI 기반 서비스는 이들 모델을 응용하여 작동합니다.

멀티모달

텍스트, 이미지, 음성, 영상 등 서로 다른 형태의 데이터를 동시에 처리하거나 생성하는 기능을 의미합니다. 미드저니처럼 텍스트 설명을 기반으로 이미지를 생성하는 AI나 반대로 이미지에 담긴 내용을 텍스트로 묘사하는 기능, 음성 명령을 이해해 영상 콘텐츠를 추천하는 시스템 등이 멀티모달 접근 방식을 취하는 사례입니다. 모달리티(modality)는 기호학에서 글/이미지/음악 등의 양태를 가리키는 용어인데, AI 맥락에서는 ‘데이터 형식’과 비슷한 뜻으로 이해할 수 있습니다. 멀티모달 모델은 다양한 데이터 유형 간 관계를 학습함으로써 단일 데이터 형식만 다루는 모델으로는 수행할 수 없는 종류의 작업을 수행합니다.

강화 학습

강화 학습은 인공지능 시스템이 환경과의 상호작용을 통해 보상을 최대화하는 결정을 내리는 기계학습 방법입니다. ‘에이전트’라고 부르는 시스템이 주어진 상태에서 특정 행동을 선택하고, 그 결과로 보상(성공 시 긍정적, 실패 시 부정적)을 받으며, 이를 반복함으로써 최적의 전략을 학습합니다. 게임 AI가 점수를 높이기 위해 전략을 개선하거나 로봇이 물체 집기 동작을 연습하여 성공 확률을 높이는 과정이 이에 해당하며, 이세돌 기사와의 승부로 화제가 된 알파고도 강화 학습 시스템입니다.

생성형 AI에서는 강화 학습이 생성된 출력의 품질을 개선하는 데 활용될 수 있습니다. 예컨대 사용자의 피드백을 보상 신호로 삼아 챗봇이 더 자연스럽운 답변을 생성하도록 혹은 혐오 발언을 내놓지 않도록 훈련하거나, 이미지 생성 모델이 특정 스타일 기준에 부합하는 결과를 만들 수 있도록 조정하는 데 적용됩니다. 학습 데이터의 패턴을 모방하는 것에 더해 외부 평가 기준에 맞추어 생성 능력을 최적화하는 데 활용하는 것으로, 이처럼 생성형 AI 시스템을 미세 조정하는 작업을 RLHF(Reinforcement Learning from Human Feedback, 인간 피드백 기반 강화 학습)라고 부릅니다.

강화 학습 시스템의 구성 요소

트랜스포머

트랜스포머(Transformer)는 인공신경망 설계·구현 방식의 한 가지입니다. 트랜스포머 이전에 주로 쓰이던 LLM 구현 방식에서는 학습 데이터를 순차적으로 입력했습니다. 예를 들어 “대한민국의 모든 권력은 국민으로부터 나온다”라는 문장이 있다면 “대한민국 → 의 → 모든 → …” 순으로 입력하여 앞뒤 단어 간의 관계를 파악합니다. 이같은 기존 방식의 한 가지 문제는 장기 의존성(멀리 떨어진 토큰 간의 관계)을 포착하기 어렵다는 것인데요. 단순화하자면 앞 문장에서 “대한민국”과 “의” 사이의 연결은 명확하지만, 상대적으로 멀리 떨어진 “대한민국”과 “국민” 사이의 연결은 불분명하다는 식입니다. 

트랜스포머에서는 학습 데이터를 한번에 병렬로 입력하여 장기 의존성 문제에 대응합니다. 앞 단어와의 관계만을 고려하는 것이 아니라 문장 전체에서 어느 단어와 관계가 높은지 수치화하는 것으로, 이런 기법을 자기 주의(self-attention) 메커니즘, 간단히는 어텐션이라고 부릅니다. 이러한 트랜스포머는 현재 텍스트 기반 생성형 인공지능의 핵심 기술 중 하나로, 오픈AI가 개발한 거대언어모델 시리즈인 GPT(Generative Pre-trained Transformer) 등 많은 모델이 트랜스포머 구조를 기반으로 작동합니다.

에이전트(agent)

컴퓨터과학 분야에서 ‘에이전트’는 각종 자동화 프로그램 및 시스템을 지칭할 수 있는 표현입니다. 생성형 AI에서 말하는 에이전트는 콘텐츠 생성과 환경 상호작용을 결합해 특정 목표를 수행하는 시스템을 의미합니다. 즉 질문에 답변을 생성하기만 하는 것이 아니라 다른 프로그램, 데이터베이스 등과 연동되어 추가적인 자동화 과정을 수행합니다. 예를 들어, 여행 계획을 돕는 에이전트는 (통상적인 채팅 기반 LLM처럼) 일정을 기획하는 것에 더해 항공권 예약 API를 호출하거나, 현지 정보를 검색해 맞춤형 추천을 제공할 수 있습니다.

환각(hallucination)

생성형 AI의 ‘환각’은 허구이거나 오해의 소지가 있는 내용, 이용자의 의도와 무관한 내용 등을 생성하여 사실인 것처럼 제시하는 현상을 말합니다. 예컨대 텍스트 생성 시 사실과 무관한 주장을 하거나, 이미지 생성 시 입력 설명에 없는 사물을 추가하는 경우 등입니다. 생성형 AI가 답변을 생성하는 방식은 데이터 패턴 기반의 통계적 예측으로, 사실 여부에 대한 판단은 생성형 AI의 작동 방식과 무관하기에 발생하는 현상입니다. 생성형 AI의 답변 생성은 ‘사실’ 여부와 무관하다는 의미에서 생성형 AI의 모든 출력은 일종의 ‘환각’이라고 볼 수도 있습니다만, 통상적인 맥락에서 AI 환각은 허위 정보 등 사실에 부합하지 않는 결과물을 가리키는 표현입니다. 한편 ‘환각’이라는 표현은 AI 시스템이 마치 감각적 경험을 하는 것처럼 그 작동을 과도하게 의인화하기 때문에 부적절하며, ‘거짓 정보’나 ‘헛소리’ 등이 더 어울린다고 보는 시각도 있습니다.

RAG

RAG(Retrieval-Augmented Generation, 검색 증강 생성, 래그)는 생성형 AI의 특징이자 단점인 환각(hallucination, 사실이 아닌 내용 생성)을 보완하여 모델의 정확성을 높이기 위한 기법입니다. RAG는 먼저 사용자의 질문에 관련된 정보를 외부 데이터베이스나 시스템이 보유한 문서에서 검색하고, 이후 검색된 정보를 바탕으로 답변을 생성하는 식으로 작동합니다. 이를 통해 특히 최신 정보나 특정 분야의 전문 지식을 반영한 답변의 정확성을 높일 수 있습니다. 단 이때도 답변을 생성하는 단계에서 오류가 발생할 가능성이 남아 있기 때문에 출처를 검증할 필요가 있습니다. RAG의 예로는 구글 등 검색엔진에 도입된 AI 요약 답변이 있습니다.

매개변수(parameter)

AI 모델의 매개변수는 모델 작동에 영향을 주는 각종 내부 수치를 말합니다. 신경망 기반 모델에서는 뉴런 간 연결의 가중치(강도) 및 편향을 매개변수로 사용하며, 데이터 학습 과정에서 각 매개변수의 값을 조금씩 조정함으로써 성능을 개선합니다. 수많은 다이얼이 달려 있는 거대한 제어반에서 각 다이얼의 위치를 조금씩 돌리는 장면을 상상하면 비슷할 것 같습니다. 생성형 AI 모델은 수십억에서 수조 개의 매개변수를 통해 단어 간 복잡한 관계를 학습하고, 이를 바탕으로 문장을 생성하거나 질문에 답변합니다. 매개변수의 규모가 클수록 모델은 더 정교한 패턴을 포착하고 성능이 향상될 수 있지만, 학습 데이터와 컴퓨팅 자원에 대한 의존도도 함께 증가합니다. 신경망의 가중치과 편향 외에도 데이터 학습과 예측에 영향을 미치는 ‘초매개변수(hyper-parameter)’들이 있습니다. 가중치와 편향 등의 매개변수는 학습 과정에서 자동으로 계산되는 값인 반면, 초매개변수는 모델 제작자/사용자가 직접 지정하는 값입니다.

가중치와 편향

가중치와 편향은 각종 기계학습 모델의 핵심 구성 요소입니다. 어떤 AI 모델이 ‘수십억 개의 매개변수를 가지고 있다’고 할 때 매개변수가 가중치와 편향을 가리킵니다.

입력 x와 출력 y의 관계를 표현하는 함수 y = wx + b가 있다고 할 때, x에 곱하는 값 w는 가중치, x에 더하는 값 b는 편향에 해당합니다. 가중치는 모델이 입력 데이터를 (정확히는 입력 데이터의 특정 패턴이나 특징을) 얼마나 중요하게 다루는지 결정합니다. 편향은 입력 데이터와 무관하게 모델의 작용을 일정 방향으로 끌고 가는, 일종의 ‘기준점’ 역할을 합니다. AI 모델의 ‘학습’은 주어진 데이터 패턴에 부합하도록 이 가중치와 편향을 조정하는 과정입니다. 

인공신경망의 예를 들어봅시다. 인공신경망은 ‘뉴런’을 여러 층에 걸쳐 연결해놓은 하나의 거대한 계산식입니다. 보통 특정 층에 있는 모든 뉴런은 다음 층에 있는 모든 뉴런과 연결되어 있습니다. 즉 각 뉴런은 이전 층에 속한 모든 뉴런의 출력의 합을 입력으로 받습니다. 뉴런 사이의 연결마다 다른 가중치가 적용됩니다. 각 뉴런은 하나 이상의 숫자 입력(이전 층에 속한 뉴런의 출력의 합)을 받아 출력을 내놓는 함수로, 뉴런마다 편향 값을 가집니다. 이 편향을 합산한 뒤 나온 값에 따라 다음 층으로 전달되는 정보가 결정됩니다.

개별 뉴런의 작동 방식

한편 생성형 AI에서 ‘편향’은 모델의 학습 데이터나 설계 과정에 기인하여 특정 집단이나 관점을 과도하게 반영하거나 배제하는 현상을 의미하기도 합니다. 예를 들어 텍스트를 생성할 때 특정 직업군을 특정 성별이나 인종과 연관시킨다거나, 역사적 서술을 특정 집단의 관점으로만 한다거나 하는 등의 사례가 있을 수 있습니다. AI 시스템의 편향은 학습 데이터에 내재된 사회적 고정관념이나 데이터 수집의 불균형을 포함해 시스템 구축의 여러 단계에서 비롯될 수 있으며, 그 활용 과정에서 이러한 편향을 재생산할 수도 있습니다. 이에 대응하기 위해 학습 데이터의 다양성 확보, 알고리즘 개선, 지속적인 모니터링과 같은 기술적·윤리적 접근을 시도하기도 합니다. 

다만 개별 뉴런의 편향이 학습 과정에서 결정된 하나의 상수이듯, 특정 AI 시스템의 편향 또한 그 구축 과정에서 비롯된 일종의 위치성이라고 볼 수 있기에 편향을 완전히 ‘제거’한 AI 시스템은 불가능한 목표라고 할 수 있습니다. 다만 소수자 배제 등의 편향이 일어나지 않도록 기술 시스템을 설계해야 한다고는 할 수 있겠습니다.

온도

온도(Temperature)는 생성형 AI 모델의 출력 다양성(무작위성)을 조절하는 초매개변수입니다. 텍스트 생성 모델의 경우 다음 단어를 예측할 때, 온도를 높게 설정하면 덜 유력한 단어도 선택할 가능성을 높여서 상대적으로 자유롭게 결과물을 생성합니다. 반대로 온도를 낮게 설정하면 가장 유력한 단어 위주로 선택하여 상대적으로 예측 가능한 출력을 생성합니다. 즉 온도값은 생성형 AI 모델의 출력 스타일을 조정하며, 예를 들어 가사 쓰기나 브레인스토밍에는 높은 온도가, 서류 작성에는 낮은 온도가 어울릴 수 있습니다. 달리 말하자면 온도를 높게 설정하면 환각의 가능성이 올라가고, 온도를 낮게 설정하면 학습 데이터 패턴을 반복할 가능성이 올라갑니다.

프롬프트

생성형 AI 모델에 입력하는 데이터 내지 지시문을 프롬프트라고 합니다. 텍스트 생성 모델에서는 “문서를 요약해줘” 같은 문장, 이미지 생성 모델에서는 “푸른 바다를 배경으로 한 황금 태양 일러스트” 같은 설명이 프롬프트에 해당합니다. 멀티모달 시스템의 경우 텍스트와 이미지 등을 조합해 복합적인 프롬프트로 활용하기도 합니다. 

프롬프트 엔지니어링은 원하는 출력을 얻기 위해 입력(프롬프트)을 설계하는 기법입니다. 예를 들어, “설명을 간단히 해줘”와 “초등학생도 이해할 수 있도록 비유와 예시를 포함해 설명해줘”라는 프롬프트는 동일한 질문에 대해 전혀 다른 답을 유도합니다. 지시문·역할 설정·예시·출력 형식 지정 등을 통해 생성형 AI를 효과적으로 활용하기 위한 일련의 전략에 해당합니다.

토큰

자연어처리에서 ‘토큰’은 컴퓨터가 텍스트 데이터를 처리하는 최소 단위를 의미합니다. 이때 하나의 텍스트 조각은 단어나 음절·글자, 한국어의 경우에는 형태소 등이 될 수 있습니다. 예를 들어, “사과”라는 단어는 하나의 토큰으로 처리될 수 있고, “unhappy” 같은 단어는 “un”과 “happy” 두 토큰으로 분리될 수 있습니다. 토큰화(tokenization) 방식은 모델마다 다르며, 같은 문장도 모델에 따라 토큰 수가 다를 수 있습니다. 보통 생성형 AI 서비스는 이용량을 토큰 단위로 계산하기에, 이용자 입장에서는 비용과 직결되기도 합니다.

임베딩

임베딩은 텍스트, 이미지, 음성 등의 데이터를 컴퓨터가 처리할 수 있는 숫자 배열(벡터)로 변환하는 기법 혹은 그렇게 변환해놓은 숫자 배열을 말합니다. AI 모델은 단어, 문장, 이미지 등을 인식하거나 생성할 때 임베딩으로 변환하여 처리합니다. 임베딩은 데이터의 복잡한 패턴을 단순화하고 관계를 명확히 하는 일종의 번역기 역할을 하며, 특히 멀티모달 모델에서 텍스트-이미지 간 변환 등 다양한 작업의 기반이 됩니다. 임베딩으로 표현한 데이터는 그 의미나 특징을 수치적으로 나타내며, 이를 활용해 예컨대 ‘강아지’와 ‘고양이’라는 단어 사이의 거리가 ‘강아지’와 ‘선풍기’ 사이의 거리보다 가깝고 따라서 ‘강아지’와 ‘고양이’는 유사한 개념이라는 식의 계산을 할 수 있습니다.

창발성

창발성(Emergence)은 복잡한 시스템이 단순한 구성 요소의 상호작용을 통해 설계 단계에서 예상치 못한 새로운 특성이나 능력을 나타내는 현상을 의미합니다. 생성형 AI에서는 거대언어모델이 방대한 데이터와 수많은 매개변수를 학습한 뒤, 개발자가 명시적으로 프로그래밍한 적 없는 능력이 나타나는 (것처럼 보이는) 현상을 지칭합니다. 예를 들어 특정 질문에 대한 논리적 답변 생성이나 다양한 스타일로의 텍스트 변환 능력 등이 창발성의 결과로 이야기됩니다. 긍정적인 특징뿐만 아니라 허위정보, 해킹 등의 부정적 방향으로도 나타납니다. 생성형 AI의 이같은 창발적 특성이 정말 ‘새로운’ 능력인지는 아직 논쟁의 대상입니다만, 우리가 생성형 AI 기술을 이해하고 그 작용을 예측하는 데 아직 공백이 있다고 볼 수 있습니다.

의인화

생성형 AI의 과도한 의인화는 기술의 본질과 한계를 흐리며 여러 위험을 야기하기에, 생성형 AI가 의도성·감정·의식이 없는 통계적 패턴 생성 도구임을 명확히 할 필요가 있습니다. 의인화는 우선 기술의 현재 수준에 부합하지 않는 과대평가와 오남용으로 이어질 수 있습니다. 감정적 유대감을 느끼고 인간처럼 발화하도록 설계된 챗봇은 사용자가 기술적 한계를 넘어 인간적 판단을 기대하게 만들고, 의료·법조 등 고위험 분야에서조차 AI에 대한 맹목적 신뢰를 유발할 수 있습니다. 또한 AI를 인간과 동등한 존재로 오인할 경우, AI로 인한 인류의 멸망이나 AI의 인격 등 비현실적 담론이 확대되며, 실제 인간 노동자의 가치나 권리, 그리고 AI 시스템을 개발하고 운영하는 기업의 책임에 관한 논의를 방해할 여지가 있습니다.

AGI(인공일반지능)

AGI는 텍스트 생성, 이미지 생성 등 특정 작업에 특화된 현재 인공지능과 달리, 인간이 수행하는 다양한 지적 활동(문제의 이해·해결·추론·창의적 사고 등)을 폭넓게 수행할 수 있는 가상의 시스템을 의미합니다. 만약 AGI가 달성된다면 다양한 분야의 지식을 통합적으로 이해하고, 새로운 상황에 유연하게 대응하며, 스스로 복잡한 문제를 해결할 수 있을 것으로 기대됩니다. 그러나 현재의 기술 상황에서는 실현되지 않았고 전망도 불투명한 개념이며, 기술 용어보다는 마케팅 용어로 쓰이는 경향이 있습니다.

데이터센터

생성형 AI 모델을 제작하고 서비스를 구동하기 위해서는 고성능 GPU 서버를 대량으로 작동시켜야 합니다. 이를 위해 만들어진 데이터센터는 방대한 양의 데이터와 연산을 처리하기 위해 서버를 적게는 수천 대, 많게는 수십만 대 이상 모아둔 건물입니다. 데이터센터는 생성형 AI 산업에 필수적인 인프라인 동시에 에너지, 냉각수, 광물자원 등 각종 환경 비용과 직결되는 요인이기도 합니다.