AI 거버넌스와 윤리 - 책임있는 AI

2028년까지 거버넌스 플랫폼으로 AI 윤리적 사고 40% 감소 전망
EU AI 법 위반 시 최대 연간 글로벌 매출 7% 벌금 부과
2026년 8월 전면 적용, 고위험 AI 시스템 엄격 규제

AI 시스템이 의료 진단, 채용 결정, 금융 심사, 형사 사법 등 중대한 영역에서 활용되면서 윤리적·법적 문제가 대두되고 있습니다. 편향된 데이터로 학습한 AI는 차별적 결정을 내릴 수 있고, 투명성이 부족한 블랙박스 시스템은 신뢰를 얻기 어려우며, 책임 소재가 불명확하면 피해 구제가 곤란합니다. 가트너는 종합적인 AI 거버넌스 플랫폼을 구축하는 기업이 2028년까지 AI 관련 윤리적 사고를 40% 이상 줄일 수 있을 것으로 전망합니다. 이 글에서는 AI 거버넌스의 핵심 원칙, 편향성 관리, 투명성 확보, 규제 준수, 그리고 책임있는 AI 구현 방법을 상세히 다룹니다.

AI 거버넌스란 무엇인가

AI 거버넌스는 AI 시스템의 개발, 배포, 운영 전 과정에서 윤리적, 법적, 사회적 기준을 준수하도록 관리하는 정책과 프로세스의 체계입니다. AI 기술의 투명성, 신뢰성, 윤리적 문제를 해결하기 위한 원칙과 실행 방안을 포함합니다.

AI 거버넌스의 필요성

AI 시스템이 사회 전반에 깊이 통합되면서 기술적 성능만큼이나 윤리적 책임이 중요해졌습니다. 첫째, 편향성과 차별 문제입니다. AI가 과거의 편향된 데이터로 학습하면 성별, 인종, 나이 등에 따른 차별적 결정을 내릴 수 있습니다. 예를 들어 특정 성별이나 인종을 선호하는 채용 AI, 특정 지역 주민에게 불리한 신용 평가 시스템은 사회적 불평등을 심화시킵니다.

둘째, 투명성 부족 문제입니다. 복잡한 딥러닝 모델은 왜 특정 결정을 내렸는지 설명하기 어려운 블랙박스입니다. 의료 진단이나 대출 거부 같은 중대한 결정에 대해 설명할 수 없다면 신뢰를 얻기 어렵고 규제 준수도 곤란합니다.

셋째, 책임 소재 불명확 문제입니다. AI가 잘못된 결정으로 피해를 입혔을 때 누가 책임을 져야 하는지 명확하지 않습니다. 데이터 제공자, 모델 개발자, 시스템 배포자, 최종 사용자 중 누구의 책임인가요?

넷째, 규제 준수 요구 증가입니다. EU AI 법, 미국 AI 권리장전, 한국 AI 기본법 등 전 세계적으로 AI 규제가 강화되고 있습니다. 기업은 법적 의무를 준수해야 하며, 위반 시 막대한 벌금과 평판 손상을 입을 수 있습니다.

AI 거버넌스의 핵심 원칙

딜로이트가 제시하는 신뢰할 수 있는 AI 프레임워크는 투명성, 공정성, 견고성, 개인정보 보호, 안전성, 책임성의 6가지 핵심 원칙을 강조합니다.

투명성(Transparency)은 AI 시스템이 어떻게 작동하고 왜 특정 결정을 내렸는지 설명할 수 있어야 함을 의미합니다. 사용자는 AI와 상호작용하고 있음을 알아야 하며, 중요한 결정에 대해서는 그 근거를 이해할 수 있어야 합니다.

공정성(Fairness)은 AI가 모든 사람을 공평하게 대우하고 차별하지 않아야 함을 의미합니다. 성별, 인종, 나이, 장애 등 보호받아야 할 속성에 기반한 편향을 배제하고 동등한 기회를 제공해야 합니다.

견고성(Robustness)은 AI 시스템이 다양한 상황에서 안정적으로 작동하고 예상치 못한 입력이나 공격에도 신뢰할 수 있는 성능을 유지해야 함을 의미합니다.

개인정보 보호(Privacy)는 AI가 개인 데이터를 처리할 때 프라이버시를 존중하고 보호해야 함을 의미합니다. 데이터 최소화, 동의 획득, 안전한 저장 및 전송이 필수적입니다.

안전성(Safety)은 AI 시스템이 인간에게 해를 끼치지 않고 안전하게 작동해야 함을 의미합니다. 잠재적 위험을 사전에 평가하고 완화 조치를 취해야 합니다.

책임성(Accountability)은 AI 시스템의 결정과 행동에 대해 누군가 책임을 져야 함을 의미합니다. 명확한 책임 소재, 감사 추적, 피해 구제 메커니즘이 필요합니다.

편향성 관리

AI 편향성은 데이터, 알고리즘, 인간의 판단 등 여러 단계에서 발생할 수 있습니다. 편향성을 선제적으로 확인하고 제거하는 것이 AI 거버넌스의 핵심 과제입니다.

편향성의 원인

데이터 편향이 가장 흔한 원인입니다. 역사적으로 차별이 존재했던 분야의 데이터로 학습하면 AI도 그 편향을 학습합니다. 예를 들어 과거 채용 데이터에서 남성이 대다수였다면 AI는 남성을 선호하도록 학습될 수 있습니다. 표본 편향도 문제로, 특정 집단이 과대 또는 과소 대표되면 그 집단에 대한 예측 정확도가 떨어집니다.

알고리즘 편향은 모델 설계나 목적 함수 선택에서 발생합니다. 정확도만 최적화하면 소수 집단에 대한 성능이 희생될 수 있습니다. 레이블 편향은 인간이 데이터에 레이블을 붙이는 과정에서 주관적 판단이 개입하여 발생합니다.

상호작용 편향은 AI 시스템이 사용자와 상호작용하며 편향된 피드백을 받아 강화되는 현상입니다. 추천 시스템이 사용자의 기존 선호를 강화하여 필터 버블을 만드는 것이 대표적 예입니다.

편향성 탐지 방법

정기적인 데이터 편향성 점검이 필수적입니다. 데이터셋의 인구통계학적 분포를 분석하여 특정 집단이 과소 대표되거나 레이블이 불균형하게 분포하는지 확인합니다. 통계적 패리티, 기회 평등, 예측 패리티 같은 공정성 지표로 모델의 예측 결과가 보호 속성(성별, 인종 등)과 무관하게 공평한지 평가합니다.

알고리즘 공정성 테스트를 정례화하여 다양한 인구 집단에 대한 모델 성능을 분리하여 측정하고, 특정 집단에서 성능이 현저히 낮으면 편향의 증거입니다. 대립적 탐지(Adversarial Debiasing)로 보호 속성을 예측하지 못하도록 학습시켜 간접적 편향도 제거할 수 있습니다.

편향성 완화 전략

데이터 수준에서는 재샘플링으로 소수 집단의 샘플을 증가시키거나 다수 집단을 감소시켜 균형을 맞춥니다. 데이터 증강으로 소수 집단의 합성 데이터를 생성하거나, 재가중치 부여로 소수 집단 샘플에 더 높은 가중치를 적용하여 모델이 더 주목하도록 합니다.

알고리즘 수준에서는 공정성 제약을 목적 함수에 포함시키거나, 사후 처리로 모델 예측 결과를 조정하여 공정성 기준을 충족시킵니다. 다중 모델 앙상블로 여러 모델의 예측을 결합하여 개별 모델의 편향을 상쇄할 수 있습니다.

프로세스 수준에서는 다양한 배경의 팀원을 포함시켜 다양한 관점을 반영하고, 외부 감사로 독립적인 제3자가 편향성을 평가하며, 지속적 모니터링으로 배포 후에도 성능을 추적하여 새로운 편향이 발생하지 않는지 확인합니다.

투명성과 설명 가능성

AI 시스템의 투명성은 사용자 신뢰와 규제 준수의 핵심입니다. EU AI 법은 특정 AI 시스템에 대해 사용자가 AI와 상호작용하고 있음을 알도록 공개 의무를 명시합니다. 챗봇, 감정 인식 시스템, 생체 인식 시스템은 사용자에게 명확히 고지해야 합니다.

설명 가능한 AI(XAI)

설명 가능한 AI는 모델의 결정 과정을 인간이 이해할 수 있게 설명하는 기술입니다. LIME(Local Interpretable Model-agnostic Explanations)은 복잡한 모델의 특정 예측을 간단한 모델로 근사하여 설명하고, SHAP(SHapley Additive exPlanations)는 게임 이론의 샤플리 값을 사용하여 각 특성이 예측에 기여한 정도를 정량화합니다.

주목도 맵(Attention Maps)은 이미지 분류에서 모델이 어느 부분에 집중했는지 시각화하고, 결정 트리 시각화는 트리 기반 모델의 분기 규칙을 보여줍니다. 반사실적 설명(Counterfactual Explanations)은 결정을 바꾸려면 어떤 입력을 어떻게 변경해야 하는지 제시합니다.

투명성 확보 방법

기술 문서화를 철저히 하여 AI 시스템의 작동 원리, 사용된 데이터, 모델 아키텍처, 훈련 과정, 성능 지표, 한계와 위험을 상세히 기록합니다. EU AI 법은 고위험 AI 시스템에 대해 외부 감사와 규제 준수를 위한 종합적인 기술 문서를 의무화합니다.

모델 카드(Model Cards)나 데이터시트(Datasheets)로 모델과 데이터의 주요 정보를 표준화된 형식으로 공개합니다. 사용자 인터페이스에서는 AI 결정의 근거를 알기 쉽게 표시하고, 사용자가 의문을 제기하거나 재검토를 요청할 수 있는 메커니즘을 제공합니다.

규제 준수와 표준

2025년 현재 AI 규제는 전 세계적으로 강화되고 있으며, 기업은 여러 규제 체계를 동시에 준수해야 할 수 있습니다.

EU AI 법(AI Act)

EU AI 법은 2024년 8월 1일 발효되었으며, 단계적으로 적용됩니다. 2025년 2월 2일부터 금지 사항과 AI 리터러시 의무가 시작되고, 2025년 8월 2일부터 거버넌스 규칙과 범용 AI 모델 의무가 적용되며, 2026년 8월 2일부터 전면 적용됩니다.

AI 법은 위험 기반 접근법을 채택하여 AI 시스템을 4개 등급으로 분류합니다. 수용 불가 위험(Unacceptable Risk)은 사회적 신용 점수, 무차별 감시 같은 시스템으로 완전 금지됩니다. 고위험(High Risk)은 채용, 교육, 법 집행, 의료 등에 사용되는 시스템으로 엄격한 요구사항을 충족해야 합니다. 제한적 위험(Limited Risk)은 챗봇 같은 시스템으로 투명성 의무가 있으며, 최소 위험(Minimal Risk)은 대부분의 AI 애플리케이션으로 특별한 요구사항이 없습니다.

고위험 AI 시스템은 강력한 데이터 거버넌스, 정기적인 모니터링, 편향 최소화, 인간 감독을 포함한 요구사항을 충족해야 합니다. 위반 시 최대 연간 글로벌 매출의 7%까지 벌금이 부과될 수 있습니다.

ISO 42001 AI 관리 시스템

ISO 42001은 AI 시스템의 책임있는 개발과 사용을 위한 국제 표준입니다. AI 거버넌스 프레임워크를 체계적으로 구축하는 방법을 제시하며, EU AI 법 준수를 위한 기반으로도 활용될 수 있습니다.

ISO 42001은 위험 관리, 영향 평가, 데이터 품질, 투명성, 인간 감독, 지속적 개선의 요구사항을 포함합니다. 조직의 AI 관리 시스템이 표준을 준수하는지 제3자 인증을 받을 수 있어 고객과 이해관계자에게 신뢰를 제공합니다.

한국 AI 기본법

한국은 2025년 AI 기본법을 통해 법적 기반을 마련하고 있습니다. 데이터 품질과 투명성을 보장하는 기술적 가이드라인과 함께 AI 시스템의 윤리적 사용을 위한 기준을 수립하고 있습니다. 다양한 이해관계자가 AI 정책 개발 및 실행에 참여하여 투명성과 책임성을 증대시키는 방향으로 나아가고 있습니다.

기타 주요 규제

미국은 AI 권리장전(AI Bill of Rights)으로 안전하고 효과적인 시스템, 알고리즘 차별 방지, 데이터 프라이버시, 통지와 설명, 인간 대안 및 검토의 5가지 원칙을 제시합니다. 캐나다는 인공지능 및 데이터법(AIDA)으로 고영향 AI 시스템을 규제하고, 중국은 AI 콘텐츠 생성 서비스에 대한 규정으로 딥페이크와 생성형 AI를 관리합니다.

AI 거버넌스 플랫폼 구축

실효성 있는 AI 거버넌스를 위해서는 정책과 도구를 결합한 플랫폼이 필요합니다. AI 거버넌스 플랫폼은 AI 모델의 개발부터 배포, 모니터링까지 전 생애주기를 관리합니다.

핵심 기능

모델 인벤토리 및 추적으로 조직 내 모든 AI 모델을 등록하고 메타데이터를 관리합니다. 어떤 모델이 어디에 배포되었는지, 누가 소유하는지, 어떤 데이터를 사용하는지 파악합니다.

위험 평가 및 분류로 각 AI 시스템의 위험 수준을 평가하고 EU AI 법 같은 규제 기준에 따라 분류합니다. 고위험 시스템은 추가 검증과 승인이 필요합니다.

정책 관리 및 시행으로 조직의 AI 사용 정책을 정의하고 자동으로 시행합니다. 예를 들어 편향성 임계값, 설명 가능성 요구사항, 인간 검토 필수 여부 등을 설정합니다.

편향성 및 공정성 테스트로 모델을 다양한 인구 집단에 대해 테스트하고 공정성 지표를 계산합니다. 임계값을 초과하면 경고를 발생시키고 모델 배포를 차단할 수 있습니다.

설명 가능성 도구로 모델 예측에 대한 설명을 생성하여 이해관계자에게 제공합니다. SHAP, LIME 같은 기술을 통합하여 결정 근거를 시각화합니다.

모니터링 및 감사로 배포된 모델의 성능을 지속적으로 추적하고 드리프트, 편향 증가, 오류율 상승 등을 감지합니다. 모든 모델 변경과 결정을 로깅하여 감사 추적을 유지합니다.

규제 준수 보고로 EU AI 법, ISO 42001 등 규제 요구사항을 자동으로 추적하고 준수 보고서를 생성합니다.

주요 솔루션

IBM Watson OpenScale은 모델 모니터링, 공정성 체크, 설명 가능성, 드리프트 탐지를 제공하며, 다양한 ML 플랫폼과 통합됩니다. Microsoft Azure Machine Learning은 책임있는 AI 대시보드로 공정성 평가, 오류 분석, 모델 설명을 지원합니다. Google Cloud Vertex AI는 모델 모니터링과 설명 가능성 도구를 제공하며, Arthur AI는 모델 성능 모니터링과 편향 탐지에 특화된 전문 플랫폼입니다.

책임있는 AI 실행 가이드

AI 거버넌스는 단순히 도구를 도입하는 것을 넘어 조직 문화와 프로세스에 내재화되어야 합니다.

1단계: 거버넌스 위원회 구성

다양한 부서(법무, 윤리, 기술, 비즈니스)의 대표로 구성된 AI 거버넌스 위원회를 설립합니다. 위원회는 AI 정책을 수립하고 고위험 프로젝트를 검토 승인하며 분쟁을 해결합니다.

2단계: AI 사용 정책 수립

조직의 AI 사용 원칙을 명확히 정의합니다. 허용되는 사용과 금지되는 사용, 데이터 사용 기준, 편향성 임계값, 설명 가능성 요구사항, 인간 검토 필수 시나리오를 명시합니다.

3단계: 위험 평가 프로세스 구축

새로운 AI 프로젝트 시작 전에 위험 평가를 수행합니다. 어떤 데이터를 사용하는지, 누구에게 영향을 미치는지, 잠재적 편향은 무엇인지, 잘못된 결정의 결과는 무엇인지 평가합니다. 위험 수준에 따라 승인 절차와 모니터링 강도를 차등 적용합니다.

4단계: 데이터 품질 관리

데이터 수집과 준비 단계에서 품질을 철저히 관리합니다. 데이터 출처를 문서화하고 대표성을 확인하며 레이블 품질을 검증하고 개인정보를 보호합니다. 편향된 데이터는 편향된 모델을 만드므로 데이터 품질이 거버넌스의 출발점입니다.

5단계: 모델 개발 시 공정성 고려

모델 훈련 시 공정성 지표를 함께 평가합니다. 정확도만 최적화하지 말고 다양한 집단에 대한 성능 균형을 고려합니다. 필요하면 공정성 제약을 목적 함수에 포함시킵니다.

6단계: 배포 전 검증

모델을 프로덕션에 배포하기 전에 종합적인 검증을 수행합니다. 편향성 테스트, 설명 가능성 확인, 보안 취약점 점검, 규제 준수 검토를 거쳐 거버넌스 위원회의 승인을 받습니다.

7단계: 지속적 모니터링

배포 후에도 모델 성능을 지속적으로 모니터링합니다. 드리프트 탐지, 편향성 변화 추적, 오류 사례 분석, 사용자 피드백 수집을 통해 문제를 조기에 발견하고 대응합니다.

8단계: 투명한 커뮤니케이션

사용자와 이해관계자에게 AI 사용에 대해 투명하게 소통합니다. 어떤 결정이 AI로 이루어지는지, 어떻게 작동하는지, 이의 제기 방법은 무엇인지 명확히 안내합니다.

마치며

AI 거버넌스는 기술의 윤리적 사용을 보장하고 위험을 관리하며 규제를 준수하기 위한 필수 체계입니다. 투명성, 공정성, 견고성, 개인정보 보호, 안전성, 책임성의 핵심 원칙을 준수하면 AI 시스템의 신뢰성을 높이고 사회적 수용성을 확보할 수 있습니다.

편향성 관리는 데이터 점검, 알고리즘 공정성 테스트, 다양한 완화 전략을 통해 구현되며, 투명성과 설명 가능성은 XAI 기술과 철저한 문서화로 달성됩니다. EU AI 법, ISO 42001, 각국의 AI 규제를 준수하기 위해서는 체계적인 거버넌스 플랫폼과 프로세스가 필요합니다.

AI 거버넌스는 규제 준수를 위한 부담이 아니라 경쟁 우위의 원천입니다. 책임있는 AI를 구현하는 기업은 고객 신뢰를 얻고 법적 위험을 줄이며 장기적으로 지속 가능한 혁신을 이룰 수 있습니다. 가트너 전망대로 거버넌스 플랫폼을 구축한 기업이 윤리적 사고를 40% 줄인다면, 이는 단순한 비용 절감을 넘어 브랜드 가치와 사회적 책임을 동시에 강화하는 전략적 투자입니다.

에이전틱 AI 같은 자율 시스템이 확산될수록 거버넌스의 중요성은 더욱 커집니다. AI가 스스로 결정하고 행동하는 시대에 우리는 그 결정이 윤리적이고 공정하며 인간의 가치를 존중하도록 보장해야 합니다. 책임있는 AI는 선택이 아닌 필수이며, 지금 시작해야 미래를 준비할 수 있습니다.

에이전틱 AI에 대해 더 알아보고 싶다면 다음 글을 참고하세요.

2025년 IT 트렌드 전반에 대해서는 다음 글을 참고하세요.

❓ AI 거버넌스와 AI 윤리는 같은 개념인가요?

AI 윤리는 AI가 도덕적으로 옳은 방식으로 작동하도록 하는 원칙과 가치를 의미하고, AI 거버넌스는 그러한 윤리 원칙을 실제로 구현하고 시행하는 정책, 프로세스, 도구의 체계입니다. 윤리는 "무엇이 옳은가"에 대한 철학적 기준이고, 거버넌스는 "어떻게 옳게 할 것인가"에 대한 실행 방안입니다. AI 거버넌스는 윤리를 포함하되 법적 준수, 위험 관리, 기술적 통제까지 아우르는 더 넓은 개념입니다. 예를 들어 "AI는 공정해야 한다"는 윤리 원칙이고, "편향성 테스트를 정기적으로 수행하고 임계값을 초과하면 모델 배포를 중단한다"는 거버넌스 정책입니다.

❓ 중소기업도 AI 거버넌스 플랫폼을 도입해야 하나요?

규모와 AI 사용 범위에 따라 다르지만, AI를 사업에 활용하는 모든 기업은 기본적인 거버넌스 체계를 갖춰야 합니다. 대규모 전용 플랫폼이 부담스럽다면 간소화된 접근법으로 시작할 수 있습니다. 첫째, AI 사용 정책을 문서화하고 팀원들과 공유합니다. 둘째, 간단한 체크리스트로 모델 배포 전 편향성, 프라이버시, 투명성을 점검합니다. 셋째, 클라우드 제공업체의 내장 거버넌스 도구(Azure ML, Google Vertex AI)를 활용합니다. 넷째, 오픈소스 XAI 라이브러리(SHAP, LIME)로 설명 가능성을 확보합니다. 규제 대상이거나 고위험 분야(금융, 의료)라면 더 체계적인 플랫폼이 필요하지만, 일반적인 비즈니스 AI 활용은 기본 거버넌스 원칙 준수로도 충분합니다.

❓ AI 편향성을 완전히 제거할 수 있나요?

완전한 제거는 사실상 불가능하지만 지속적으로 완화하고 관리할 수 있습니다. 편향은 데이터, 알고리즘, 인간의 판단 등 여러 원천에서 발생하며, 사회적 편향이 데이터에 반영되어 있기 때문에 기술만으로 해결하기 어렵습니다. 또한 공정성 정의 자체가 다양하여(통계적 패리티, 기회 평등, 예측 패리티 등) 한 기준을 만족하면 다른 기준은 위배될 수 있습니다. 따라서 현실적 접근은 첫째, 편향을 허용 가능한 수준까지 줄이고, 둘째, 투명하게 공개하며(이 시스템은 어떤 한계가 있다), 셋째, 지속적으로 모니터링하고 개선하는 것입니다. 완벽보다는 진행 중인 프로세스로 이해해야 합니다.

❓ EU AI 법은 EU 밖 기업에도 적용되나요?

예, EU AI 법은 역외 적용(Extraterritorial Application)됩니다. EU에 AI 시스템이나 서비스를 제공하거나 EU 내 사용자에게 영향을 미치는 모든 기업에 적용됩니다. EU에 물리적 사무실이 없어도, 예를 들어 미국 기업이 EU 고객에게 AI 기반 서비스를 제공하면 AI 법을 준수해야 합니다. 이는 GDPR과 유사한 구조로, 글로벌 디지털 비즈니스의 특성상 지리적 위치와 무관하게 EU 시장에 참여하려면 EU 규제를 따라야 합니다. 위반 시 최대 연간 글로벌 매출의 7%까지 벌금이 부과될 수 있어 EU 사업이 있는 모든 기업은 준비가 필요합니다.

❓ AI 거버넌스가 혁신을 저해하지 않나요?

적절히 설계된 거버넌스는 혁신을 촉진합니다. 첫째, 신뢰를 구축하여 고객과 이해관계자가 AI 시스템을 더 적극적으로 수용하게 만듭니다. 둘째, 위험을 조기에 식별하고 완화하여 나중에 더 큰 문제(소송, 평판 손상, 규제 벌금)를 예방합니다. 셋째, 명확한 가이드라인을 제공하여 개발자가 윤리적 딜레마에 빠지지 않고 빠르게 의사결정할 수 있습니다. 넷째, 규제 준수를 체계적으로 관리하여 시장 진입 장벽을 낮춥니다. 다만 과도하게 관료적이거나 유연성이 없는 거버넌스는 혁신을 저해할 수 있으므로, 위험 기반 접근법(고위험은 엄격하게, 저위험은 유연하게)과 빠른 피드백 루프가 중요합니다. 거버넌스는 "안 된다"가 아니라 "어떻게 책임있게 할 수 있나"의 관점이어야 합니다.

❓ AI 거버넌스에서 인간 감독(Human Oversight)은 어떻게 구현하나요?

인간 감독은 AI 시스템의 결정이나 행동에 인간이 개입하여 검토, 승인, 수정할 수 있는 메커니즘입니다. 구현 방법은 위험 수준에 따라 다릅니다. Human-in-the-Loop는 AI가 제안하면 인간이 최종 결정을 내리며, 대출 승인, 의료 진단 같은 고위험 결정에 적합합니다. Human-on-the-Loop는 AI가 자율적으로 작동하지만 인간이 모니터링하고 필요시 개입하며, 추천 시스템, 콘텐츠 필터링 등에 사용됩니다. Human-in-Command는 인간이 AI 시스템의 전체 목표와 제약을 설정하고 성능을 감독하며, 전략적 수준의 통제입니다. 실제 구현에서는 위험 임계값을 설정하여(예: 확신도가 80% 미만이면 인간 검토 필수) 자동화와 감독의 균형을 맞춥니다. 또한 모든 결정을 로깅하여 사후 검토와 감사가 가능하도록 해야 합니다.

링크가 복사되었습니다