AI 기본법 시대, B2B 기업은 무엇을 준비해야 할까요?

2026년 시행되는 AI 기본법, B2B 기업은 어떻게 준비해야 할까요? AI 기본법의 핵심 정의부터 고영향 AI·생성형 AI 의무, 투명성·안전성·영향평가까지 한 번에 정리해드립니다.
AI 기본법 시대, B2B 기업은 무엇을 준비해야 할까요?

AI 기본법, 무엇을 말하는 법일까요?

2026년 1월 22일, 대한민국은 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(이하 AI 기본법)’을 전면 시행합니다. 이 법은 단순히 AI를 규제하기 위한 법이 아니라, AI 산업이 사회적 신뢰를 바탕으로 성장할 수 있도록 최소한의 질서를 세우는 것을 목표로 합니다. 다시 말해, AI 기술을 “막기 위한 법”이 아니라, “책임 있게 쓰기 위한 기준”에 가깝습니다.

AI 기본법은 크게 두 가지를 동시에 추구합니다. 하나는 AI 산업의 진흥이고, 다른 하나는 국민의 안전과 기본권 보호입니다. 이를 위해 AI를 일괄적으로 규제하지 않고, 사회적 영향도에 따라 구분해 관리합니다. 법에서는 특히 고영향 AI, 생성형 AI, 고성능 AI라는 개념을 중심으로 책임 수준을 다르게 설정하고 있습니다.

AI 관련 이미지
AI 관련 이미지 <freepik>

고영향 AI, 생성형 AI, 고성능 AI란?

AI 기본법에서 가장 중요한 개념은 ‘고영향 AI’입니다. 고영향 AI란 사람의 생명, 신체의 안전, 기본권에 중대한 영향을 미치거나 그럴 우려가 있는 AI를 말합니다. 의료, 에너지, 금융, 채용, 대출, 교통, 교육, 범죄 예방 등 사회 핵심 영역에서 활용되는 AI는 고영향 AI로 분류될 가능성이 높습니다.

생성형 AI는 텍스트, 이미지, 영상, 음성 등 새로운 콘텐츠를 만들어내는 AI를 의미합니다. 이용자가 실제와 혼동할 수 있는 결과물을 만들어낼 수 있기 때문에, 투명성 확보가 특히 강조됩니다.

고성능 AI는 대규모 연산 자원을 사용하는 초대형 모델을 의미하며, 연산량 기준 등 기술적 지표를 바탕으로 별도의 관리 대상이 됩니다. 이 유형의 AI는 사회적 파급력이 큰 만큼, 위험 관리 체계와 정부 보고 의무가 함께 요구됩니다.

AI 기본법이 요구하는 핵심 원칙

AI 기본법의 중심에는 세 가지 키워드가 있습니다. 바로 투명성, 안전성, 책임성입니다.

먼저 투명성입니다. 고영향 AI나 생성형 AI를 활용한 제품·서비스를 제공할 때는, 이용자에게 “AI가 사용되고 있다”는 사실을 사전에 알려야 합니다. 이는 제품에 직접 표시하거나, 화면·약관·설명서·안내 문구 등 다양한 방식으로 가능합니다. 특히 생성형 AI가 만든 결과물이 실제와 구분되기 어려운 경우에는, 사람이 인식할 수 있는 방식 또는 기계가 판독 가능한 방식으로 “AI가 생성했다”는 사실을 명확히 표시해야 합니다.

다음은 안전성과 위험 관리입니다. 고영향 AI를 운영하는 사업자는 단순히 기능을 제공하는 데 그치지 않고, 해당 AI가 어떤 위험을 가질 수 있는지 식별하고, 그 위험을 줄이기 위한 관리 방안을 마련해야 합니다. 이 과정과 근거는 문서로 남겨야 하며, 일부 내용은 외부에 공개하도록 요구됩니다.

마지막은 책임성입니다. AI로 인한 오류나 부작용이 발생했을 때, 누가 관리하고 감독하는지, 인간이 어떤 방식으로 개입할 수 있는지가 중요해집니다. 법에서는 고영향 AI를 관리·감독하는 책임자의 지정, 연락처 명시, 운영 체계 정비 등을 요구하고 있습니다.

법 관련 이미지 <freepik>

고영향 AI 사업자가 준비해야 할 사항은 무엇일까?

시행령안에 따르면, 고영향 AI를 제공하는 사업자는 다음과 같은 사항을 준비해야 합니다.

먼저, AI의 위험을 관리하기 위한 방안을 수립하고, 그 주요 내용을 문서로 보관해야 합니다. 이 문서에는 어떤 위험이 존재하는지, 그 위험을 어떻게 줄이거나 통제하는지, 문제가 발생했을 때 어떻게 대응하는지가 포함되어야 합니다. 또한 이 중 일부 핵심 내용은 홈페이지 등 외부에서도 확인할 수 있도록 공개해야 합니다.

또 하나 중요한 의무는 ‘영향평가’입니다. 고영향 AI를 도입하거나 운영할 때, 이 AI가 사람의 생명·안전·기본권에 어떤 영향을 미칠 수 있는지 사전에 평가해야 합니다. 이 영향평가에는 다음과 같은 내용이 포함됩니다.
어떤 개인이나 집단이 영향을 받을 수 있는지, 어떤 기본권이 영향을 받을 수 있는지, 사회적·경제적 영향은 무엇인지, 실제 사용 행태는 어떤지, 위험을 어떻게 예방·완화·복구할 것인지 등이 종합적으로 검토돼야 합니다. 단순한 기술 점검이 아니라, 사회적 관점까지 포함한 평가가 요구되는 셈이죠.

생성형 AI의 경우에는 어떨까?

생성형 AI를 사용하는 기업은 결과물에 대한 표시와 고지 의무를 특히 신경 써야 합니다. AI로 생성된 콘텐츠가 이용자에게 실제와 혼동될 가능성이 있다면, 반드시 AI가 생성했다는 사실을 알 수 있도록 해야 합니다.
표시 방법은 다양합니다. 텍스트, 로고, 워터마크처럼 사람이 직접 인식할 수 있는 방식도 가능하고, 메타데이터나 코드처럼 기계가 판독할 수 있는 방식도 허용됩니다. 다만 기계 판독 방식만 사용하는 경우에도, 이용자가 최소 한 번 이상 AI 생성물이라는 사실을 인지할 수 있도록 안내 문구나 음성 등 추가 고지가 필요합니다.

AI 기본법에서 B2B 기업이 주의해야 할 것은?

AI 기본법은 소비자 대상 서비스만의 이야기가 아닙니다. 오히려 B2B 기업이 더 직접적인 영향을 받는 구조입니다. 많은 B2B 서비스는 기업의 의사결정, 심사, 분류, 추천, 인증, 관리 업무에 사용됩니다. 이런 기능은 결국 사람의 기회, 권리, 재산, 안전에 영향을 미칠 가능성이 높습니다. 그래서 금융, 인사, 보안, 인증, 공공, 헬스케어, 모빌리티, 에너지 분야의 B2B 서비스는 고영향 AI로 분류될 가능성이 큽니다.

즉, B2B 기업은 “우리는 소비자 서비스가 아니니까 상관없다”라고 생각하기 어렵습니다. 오히려 “우리 서비스가 다른 기업의 중요한 판단을 대신하고 있지는 않은가?”를 먼저 돌아봐야 합니다.

B2B 기업의 준비 체크리스트!

B2B 기업이 AI 기본법을 대비하기 위해 가장 먼저 해야 할 일은 ‘정리’입니다. 기술을 바꾸기 전에, 구조를 먼저 파악해야 합니다.

첫째, 우리 서비스에 AI가 어디에, 어떤 역할로 쓰이고 있는지를 목록으로 정리해야 합니다. 단순 추천 기능인지, 자동 심사·분류·차단처럼 의사결정에 가까운 기능인지 구분하는 것이 중요합니다.

둘째, 이용자나 고객사에게 AI가 사용되고 있다는 사실을 어떻게 알릴지 설계해야 합니다. 약관, 화면 문구, 설명서, 가이드 문서 등 어떤 방식이 적절한지 미리 정리해 두는 것이 필요합니다.

셋째, 오류나 편향, 오판이 발생했을 때의 대응 시나리오를 마련해야 합니다. 누가 책임지고, 어떤 절차로 수정·보완하며, 고객에게 어떻게 안내할 것인지 정해 두어야 합니다.

넷째, 내부 책임 구조를 정비해야 합니다. AI 운영과 리스크 관리를 담당하는 책임자나 조직을 명확히 하고, 관리·감독 체계를 문서로 남겨야 합니다.

다섯째, 모델과 데이터, 운영 방식에 대해 최소한 설명할 수 있는 문서 체계를 갖춰야 합니다. 모든 기술을 공개할 필요는 없지만, 왜 이런 판단이 나오는지, 어떤 기준으로 운영되는지 설명할 수 있어야 합니다.

오늘은 AI 기본법에 대해서 간략하게 살펴보았습니다. AI 기본법에 대해서는 아직 여러가지 의견이 존재하는데요, 기준이 다소 추상적이고, 시행 이후에도 해석과 보완이 계속될 것입니다. AI는 더 이상 기술자들만의 도구가 아니라, 사회 전체가 함께 책임져야 할 인프라가 되었다는 점입니다.

B2B 기업에게 AI 기본법은 부담이 될 수도 있지만, 법이 요구하는 투명성, 안전성, 책임성을 미리 구조화한 기업은 고객과 시장으로부터 더 큰 신뢰를 얻을 수 있습니다. 

이제 경쟁력은 단순한 기술력이 아니라, 그 기술을 얼마나 책임 있게 운영할 수 있는가에 달려 있습니다. 더 다양한 인사이트를 얻고싶으시다면 뉴스레터를 구독해보세요! 

Share article

ARGOS Identity