제1장 서 론: 연구의 목적 제1절 연구 배경 1. 인공지능 시대의 개화 2. 인공지능의 안전성과 윤리 이슈 대두 제2절 연구 목적 및 프레임워크
제2장 인공지능 안전성 및 윤리의 개념 제1절 인공지능 안전성(AI Safety) 1. 인공지능 안전성의 개념 및 중요성 2. 인공지능 안전성 침해 사례 제2절 인공지능 윤리 1. 인공지능 윤리(AI Ethics)의 개념 및 중요성 2. 인공지능 윤리 침해 사례 제3절 인공지능 안전성 및 윤리의 개념적 범위
제3장 기업 및 학계/연구계 대응 동향 제1절 글로벌 기업 대응 동향 1. 인공지능 윤리 전문가 채용 2. 인공지능 개발자가 지켜야 할 원칙 수립 3. 인공지능의 사회적 영향 연구 및 감시 전담부서 설치 4. 인공지능 감사(Algorithm Auditing) 실시 5. 인공지능 윤리교육 실시 6. 인공지능을 활용한 사회적 공익 프로젝트 운영 7. 협회 구성 또는 외부 시민 단체와 공동 대응 제2절 학계/연구계 대응 동향 1. 인공지능 윤리지침, 표준규정 및 가이드라인 제시 2. 인공지능 윤리 프로젝트 운영 3. 인공지능 윤리교육 강화 및 방법론 연구 제3절 시사점
제4장 주요국 정부 대응 동향 제1절 주요국 정부 대응 동향 1. 미국 2. EU 3. 일본 4. 중국 5. OECD AI 권고안 6. 시사점 제2절 국내 기업·정부·학계 대응 동향 1. 기업 대응 동향 2. 학계 대응 동향 3. 정부 대응 동향 제3절 기업 및 학계/연구계, 주요국 정부 대응 동향 종합
제5장 정책제언 제1절 법제도 개선 방안 1. 법제도적 이슈 정리 2. 법제도 개선 우선순위 도출 3. 법제도 개선 방안 제2절 결론 및 시사점 1. 인공지능 안전·윤리 R&D의 방향 2. 인공지능 윤리 확보를 위한 R&D 방향 3. 인공지능 안전성 확보를 위한 R&D 방향 4. 데이터 이슈를 고려한 인공지능 정책방향