사람도 실수를 하지만, (일단 아직은) AI에게 기사를 자동으로 생성하도록 맡겨둘 일은 아닌 것 같네요. 사람들은 언론을 욕하면서도 상당히 믿는 경향이 있는데, 정확하지 않은 정보로 AI가 자동으로 기사를 생성하고, 사람이 관리를 하지 않거나 못하는데, 사람들이 그 정보를 믿는 경향을 발생시키고 있다는 것이 참.. 복잡미묘한 마음이 되도록 만드네요.
AI의 발전이 무서울 정도로 빠르게 이루어지고 있는데, 가짜뉴스 생성과 같은 부작용들이 나타나고 있는 것 같습니다. 아직까지는 할루시네이션의 문제가 있으니 사회에 미치는 영향이 큰 언론 등의 분야에서는 AI로 생성된 내용을 크로스체크하는 습관을 들여야 할 것 같아요. 국가나 정부의 입장에서 이걸 일일이 다 규제할 수도 없는 노릇이니, 개인의 미디어 리터러시의 중요성도 커질 것 같습니다!
아마 자동으로 일별 기사를 생산하게 만드는 시스템을 구축해 두었던 것 같네요. 안 그래도 최근 관련된 포럼에 참석할 일이 있어서 고민을 많이 해봤는데, 여전히 최종 기사를 내보내는 'Desk'의 역할은 인간의 손에 맡겨져야 하지 않나 싶습니다. 아마 기업이 일부러 냅둔 건 아닐 거에요.
코멘트
8ai가 아직은 대체하지 못하는 부분을 체크해줘야한다는 생각이 많이 드네요
AI가 자유로이 허위정보를 유포할 수 있다니.. 몰랐지만 우려가 크게 되네요! 어떤 형태로 가능할 지는 당장 떠오르지 않지만, 국제적으로 규제가 필요할 것 같습니다.
사람도 실수를 하지만, (일단 아직은) AI에게 기사를 자동으로 생성하도록 맡겨둘 일은 아닌 것 같네요. 사람들은 언론을 욕하면서도 상당히 믿는 경향이 있는데, 정확하지 않은 정보로 AI가 자동으로 기사를 생성하고, 사람이 관리를 하지 않거나 못하는데, 사람들이 그 정보를 믿는 경향을 발생시키고 있다는 것이 참.. 복잡미묘한 마음이 되도록 만드네요.
시민팩트체커가 2024년에 필요한 이유 같기도 하네요 :)
AI의 발전이 무서울 정도로 빠르게 이루어지고 있는데, 가짜뉴스 생성과 같은 부작용들이 나타나고 있는 것 같습니다. 아직까지는 할루시네이션의 문제가 있으니 사회에 미치는 영향이 큰 언론 등의 분야에서는 AI로 생성된 내용을 크로스체크하는 습관을 들여야 할 것 같아요. 국가나 정부의 입장에서 이걸 일일이 다 규제할 수도 없는 노릇이니, 개인의 미디어 리터러시의 중요성도 커질 것 같습니다!
아마 자동으로 일별 기사를 생산하게 만드는 시스템을 구축해 두었던 것 같네요. 안 그래도 최근 관련된 포럼에 참석할 일이 있어서 고민을 많이 해봤는데, 여전히 최종 기사를 내보내는 'Desk'의 역할은 인간의 손에 맡겨져야 하지 않나 싶습니다. 아마 기업이 일부러 냅둔 건 아닐 거에요.
AI가 데이터를 학습해서 만든 뉴스가 가짜뉴스라지만 그것을 의도적으로 둔 기업가들의 속내가 무엇인지 의문이 가득하네요..
AI가 사실이 아닌 걸 사실이라고 믿고 글을 쓴 바람에 허위조작정보가 만들어지게 되었군요.