현재 AI는 옛날과는 비교할 수 없을 정도로 발전했고 지금도 계속 발전하고 있어 사람들이 더욱 AI에게 의존하는 일이 다수 발생합니다. 인간이 AI에 지나치게 의존하거나 맹신할 경우, AI에 의해 개인의 사생활 침해 또는 개인정보 유출을 유발할 수 있고, 인간의 스스로 판단할 능력을 저해시킬 수 있으며, AI의 부정확한 정보들로 인해 사회에 악영향을 끼칠 수 있습니다. 결국 AI가 인간(사회)을 지배하는, 즉 AI 개발 목적과 맞지 않는 결과를 초래할 수 있는 것이죠.
AI는 인간이 고려하지 못한 부분까지 고려할 수 있고, 생각지 못한 아이디어를 제시하여 인간이 수행하지 못한 영역의 기술을 개발 및 발전시키며 또 자동화 ai기술로 산업전반에 걸쳐 생산성 향상, 비용 절감, 효율성 증대 등 다양한 이점을 제공하며 혁신적인 변화로 우리의 삶을 편리하게 만들고 복잡한 문제를 쉽게 해결해주는 긍정적 영향을 가지고 있습니다.
반면 AI가 성장함에 따라 챗지피티와 같은 챗봇에게 자신의 과제를 맡기는 등에 대한 사례가 증가했는데, 이러한 행동이 반복될 시에는 인간의 판단 능력이 저하되고, AI에 대한 의존도가 높아질 수 있으며, 그로 인해 AI와 인간이 대화를 하다가 인간이 극단적 선택을 한 경우도 있었습니다. 이처럼 인간 지배의 문제도 나타날 수 있습니다. AI는 수많은 정보를 수집하고 분석하는데, 이때 개인정보도 수집하고 유출하여 개인정보 침해 사건이 발생할 수 있고, 잘못된 정보를 습득하여 잘못된 정보를 발설할 수 있으며, 이를 악용해 가짜 뉴스 등을 유포할 수 있습니다.
이러한 부정적 문제들을 방지하기 위해서 AI를 접하는 사람들은 AI를 보조 도구로 인식해야 하며, 무조건적으로 받아들이는 태도를 지양하고, 다른 자료와 비교하는 등 스스로 검토하는 태도를 가져 스스로 판단할 수 있어야 합니다. 또한 알고리즘의 투명성과 책임성을 요구하는 사회적 분위기가 조성되어야 합니다.
또한 AI 자동화 기술 도입 과정에서 발생할 수 있는 리스크를 최소화하기 위해서,
1). 사전 예방 및 대비 시스템을 구축해야 하며 AI시스템의 결정 과정을 투명하게 공개해야 하며 사용자에게 충분한 정보를 제공해야 합니다.
2). AI 시스템의 개발 및 발전에 대한 윤리적 기준을 적용하고 AI 시스템이 인간의 존엄성과 기본권을 존중하도록 보장해야 합니다.
혹여나 AI가 부정확하거나 편향된 결과를 낼 경우, 이를 서비스 제공자에게 알리고 웹 사이트에서 생체 정보(얼굴, 음성)를 요청할 경우, 신중하게 검토해야 하고 인공지능 윤리에 대해 학교나 회사에서 배우는 기회를 늘리고 법과 규제를 만들어서 개인정보 보호와 인공지능의 공정성을 지키는 노력과 최대한 인간관계와 대화를 유지하려고 노력해야 합니다.
AI의 급격한 개발 및 발전으로, AI 통제 능력 개발이 등한시되고 있습니다. AI를 개발하거나 접하는 사람들은 AI가 지닌 능력 뿐만 아니라 AI가 가져올 문제들을 통제할 방안이나 기술에 대해 고안해보고, AI에 맹신해서는 안 되며 AI의 오류 가능성과 학습된 능력으로 인한 자율적 사고에 대해 항상 고려하면서 이를 이용해야 합니다.
현재 AI는 잘못된 정보 제공과 자율적 사고로 인간을 지배하는 현상을 일으킬 가능성이 매우 높아지고 있습니다. 이러한 현상이 발생하지 않도록, 이 문제에 대한 사람들의 많은 관심이 필요합니다.