Governance

책임감 있는 AI 거버넌스,
신뢰와 안전의 약속

AI 기술의 책임을 최우선으로 여기며,

내부 전문가와 외부 자문 위원회가 함께 참여하는 체계적인 거버넌스를 운영하고 있습니다.

또한 글로벌 기업 및 연구기관과의 협력을 통해, 안전하고 신뢰할 수 있는 AI 기술 개발에 지속적으로 힘쓰고 있습니다.

Principles

신뢰할 수 있는 AI를 위한

우리의 원칙 ASTRI

데이터 수집부터 AI 개발, 서비스 제공까지
전 과정에 ASTRI 원칙을 적용함으로써,

사회 전반에 안전하고 믿을 수 있는 AI 환경을
만들어갑니다.

  • Accountability

    책임성

    AI가 사회에 미치는 영향을 고려하여 시스템을
    설계하며, 그 결과에 대해서도 투명하게

    소통함으로써 책임을 다합니다.

  • Sustainability

    지속 가능성

    환경과 사회를 함께 생각하며,
    지속 가능한
    방향으로 AI를 설계하고
    개발합니다.

  • Transparency

    투명성

    AI 개발부터 서비스까지
    전체 과정을 투명
    하게 관리합니다.

  • Reliability

    신뢰성

    예상치 못한 상황에서도 사용자가 안전하고

    정확한 응답을 받을 수 있도록 신뢰도 높은

    AI 시스템을 구축합니다.

  • Inclusivity

    포용성

    다양한 시각을 반영하여, AI의 혜택이

    사회 구성원 모두에게 공유될 수 있도록
    노력합니다.

Process

원칙의 실천

데이터 보호부터 모델 개발, 결과 제공까지 AI
모든 과정에서 안전하고 신뢰할 수 있는 경험을 설계
합니다.
또한, 모든 생애주기 동안 ‘KT RAI 윤리원칙’ 준수 여부를 평가하며, AI 정책을 일관되게 적용합니다.

KT의 AI 리스크 관리 프로세스
arrow
01

리스크의
식별, 분석

  • 기획단계부터
    AI 시스템의 위험요소, 잠재적 문제 정의
  • 리스크 최소화를 위한 상세 가이드
02

리스크 위험도
평가

  • AI 관련 국내외 규제 및 다양한 평가지표에 대한 안전성 기준을 만족하는지 평가
03

리스크
완화

  • 발생 가능한 피해를 완화하기 위해, AI 개발
    각 단계에서 AI 원칙과 정책, 기술을 수용하는 리스크 완화 파이프라인 적용
04

배포 및
모니터링

  • AI 시스템 배포 시, 투명한 소통을 위해
    모델 카드를 함께 배포
  • 배포 후 이상 동작,
    유해 응답 등에 대한
    집중 모니터링
arrow
arrow
Responsible AI 평가 및 심의
  • 영향 평가

    • AI 안전 정책 • 규제를 기반으로 조직이나 사회에 발생할 수 있는 다양한 잠재적 문제를 검토하고, 부정적 영향을 최소화하는 과정입니다.
    • 영향평가는 1회성으로 수행하는 평가가 아니며,
      Al Lifecycle 전 주기동안 순차적으로 진행됩니다.
  • 안전 평가

    • AI가 안전한 결과물을 생성하고 사회경제적, 법적 안전성 기준을 충족하는지 종합적으로 평가합니다.
    • 적대적 공격 상황에 대해서도 안전성을 검증하는 레드티밍(Red Teaming) 기법을 통해 AI 시스템의 강건성과 신뢰성 까지 확보합니다.
  • RAI 심의

    • Al 안전성 · 신뢰성을 경영진이 심의 • 의결하는 절차입니다.
    • KT ASTRI 원칙과 국내외 규제 위반 여부, 레드티밍 결과, 품질 성능 등을 종합적으로 검토합니다.
Responsible AI Tools
  • Data Cleansing Tool

    • AI 모델의 품질과 공정성을 보장하기 위해 학습 데이터에서 민감정보, 편향된 내용, 공격적 표현 등 유해한 정보를 식별하고 제거합니다.
    • 깨끗하고 균형 잡힌 학습 데이터를 통해 신뢰할 수 있는 AI 모델 구축의 기반을 마련합니다.
  • RAI Evaluation Tool

    • AI 모델의 안정성과 강건성을 정성적, 정량적으로 측정하고 평가합니다.
    • 다양한 평가 데이터와 벤치마크 데이터셋, 적대적 공격 기반 종합적 평가를 제공합니다.
  • RAI Guardrail Tool

    • AI 모델이 유해하거나 부적절한 결과를 생성하지 않도록 실시간으로 차단하고 제어합니다.
    • AI 모델의 입력과 출력 모두에 적용할 수 있습니다.
  • RAI Monitoring Tool

    • AI 시스템의 로그 데이터를 분석하여 안전하지 않은 AI 모델의 동작 패턴을 식별하는 도구입니다.
    • 이상 패턴이 감지되면 운영자에게 알림을 전송하여 신속한 대응을 가능하게 하고 AI 시스템의 안전성을 유지합니다.
People

Responsible AI 실천

KT는 AI 리터러시 교육과 실천을 바탕으로,
책임 있는 AI 문화를
조성하고 확산하고자 노력하고 있습니다. (Responsible AI Culture)

  • icon light

    Responsible AI
    실무 교육 및 컨설팅

    AI 관련 사고 사례를 통해 기업의 책임을 이해하고, 전 임직원이 이를 학습할 수 있도록 교육을 운영합니다. 실무자에겐 프로젝트 기반의 Responsible AI 실무 교육 및 컨설팅
    을 별도로 제공합니다.

  • icon dashboard

    실천 중심의
    Responsible AI 문화

    구성원들이 관련 프로세스, 가이드라인 준수 등 행동을 통해 Responsible AI를 숙지하고, 나아가 개인과 조직적 관점의 자발적인 실천 문화를 구축하기 위해 노력하고 있습니다.