[ISTELive 23: K-12 교육에서 인공지능의 사용]
◎ 인공지능과 이에 기반한 응용 프로그램은 너무나도 빨리 변하고 있으며 그 속도는 따라갈 수 없음.
◎ 한편, 이번 ISTELive 23에 참여한 EdTech의 K-12 IT 인플루언서 Lesile Fisher(*Fisher Technologies의 디렉터)는 AI 기술 자체가 새로운 것은 아니라고 강조하였으며, 단지 지금은 AI에 가속제가 첨가된 것일 뿐이라고 이야기함.
◎ 본 아티클은 ISTELive 23에서 발표된 AI 관련 세션 중 다음 2가지의 세션 내용을 토대로 IT 지도자가 알아야 할 AI 윤리 정책 및 지침에 대해 논의함.
① "ChatGPT and Beyond: Authentic Experiences with Artificial Intelligence" (참고 1)
② "Embracing Artificial Intelligence and Chat GPT in Education" (참고 2)
1) K-12 학교에서 AI 사용을 위한 정책을 만드는 방법
- AI를 학교 수업에 통합하는 것은 이제 피할 수 없는 문제이기에 지금부터라도 AI를 교육에 통합하기 위한 정책을 만들어야 함.
- 정책이 마련되기 시작하면 학생들은 어떻게 도구를 활용할지 스스로 결정하기 시작할 것임.
- ②번 세션을 진행한 Clark, Miller 그리고 Shelton은 AI를 이용한 표절과 부정행위에 대한 우려를 이야기한 한편, ChatGPT와 같은 프로그램을 사용하는 학생들의 행동은 비동기적 협업으로 간주될 수 있다고 주장함(인간-기술 사이의 협업).
- Clark는 학생들이 새로운 '프롬프트 엔지니어'가 되어야 하며, 원하는 결과를 얻기 위해 AI와 함께 작업하는 기술이 필요하다고 이야기함.
2) AI 우수 사례 교육과 디지털 시민의식
- Shelton은 교실에서 디지털 시민의식을 실천할 수 있는 최선의 방법을 촉진하려면 AI 수업을 피할 수 없다고 이야기함.
- '이것 하지 마세요'라는 처벌적 측면보다는 기술을 좋은 목적으로 사용하는 방법에 대한 안내를 제공해야 한다고 주장함.
- 또한 AI가 계속 발전함에 따라 학생들은 콘텐츠의 신뢰성을 평가할 수 있는 능력을 가져야 함.
- 이러한 이유로 Clark는 학생들에게 내용을 생성하는 것보다는 내용을 수정하고 사실을 확인하는 것이 중요하다고 강조함.
3) K-12에서 AI 사용과 관련된 윤리적인 우려 사항
- 사용자는 AI가 결정을 내리는 데 사용하는 데이터 세트를 신중히 평가해야 함.
- 잠재적인 편견, 의도적인 편향에 대해 의식해야 함.
- 대부분의 AI는 블랙박스 AI이며, 이는 코드를 작성한 사람들조차 답이 도출되는 과정을 모르는 상태를 의미함. → 정부는 블랙박스 AI 모델에 대한 법률을 강력히 주장하고 있음. (*블랙박스 AI에 대한 추가 설명 : AI 개발자들은 지적 재산을 보호하기 위해 모델을 블랙박스에 넣거나 훈련 데이터를 블랙박스에 넣음. 이는 훈련 데이터를 모호하게 만드는 작업임. )
- 구독 또는 Bing 검색 엔진을 통해 이용 가능한 ChatGPT 4의 개선사항 중 하나는 '인용 추가'임.
[참고]
1. https://conference.iste.org/2023/program/search/detail_session.php?id=116561614
2. https://conference.iste.org/2023/program/search/detail_session.php?id=116574876