본문 바로가기
하루하루

기자들을 위협할 수 있는 인공지능

by hop Hedge hop 2023. 7. 6.
반응형

 


인공지능(AI) 도구 ChatGPT은 작년에 출시되었습니다. 그 이후로, 인공지능이 세계를 장악할 가능성이 그 어느 때보다 사람들을 걱정시켰습니다.

뉴욕 대학의 스턴 비즈니스 및 인권 센터의 새로운 보고서는 생성 인공지능의 8가지 위험을 식별합니다. 이러한 위험 중 일부는 특히 기자와 뉴스 미디어 조직과 관련이 있습니다.

허위 정보, 컴퓨터 공격, 개인 정보 침해, 뉴스 매체 약화 등이 그 팀이 보고하는 위험 중 하나입니다.

스턴 센터의 폴 바넷 부소장은 이 보고서의 공동 집필자였습니다. 그는 사람들이 현재와 미래에 인공지능이 어떤 위험을 초래하는지 혼란스러워 한다고 VOA에 말했습니다.

바넷이 말했습니다: "우리는 '오 마이 갓, 이 기술이 인류를 파괴할 킬러 로봇으로 이어질 것인가'라는 질문에 마비되어서는 안 됩니다."

지금 당장 출시되는 시스템은 미래에 일부 사람들이 우려하는 극단적인 위험으로 이어지지 않을 것이라고 Barrett은 설명했습니다. 그 보고서는 국회의원들에게 인공지능과 관련된 현존하는 문제들 중 일부에 직면할 것을 촉구합니다.

AI의 가장 큰 우려 사항 중 하나는 기자와 활동가에게 미치는 위험입니다.

그 보고서는 AI가 온라인에서 기자들을 훨씬 쉽게 독살할 수 있게 한다고 말합니다. 독싱은 개인의 주소와 같은 개인 정보가 공개적으로 게시되는 것입니다.

인공지능이 선전을 더 쉽게 만들기 때문에 허위 정보는 또 다른 문제입니다. 이 보고서는 2016년 미국 대통령 선거에 러시아가 개입한 것에 주목했습니다. 그것은 인공지능의 사용이 그 과정에 대한 러시아의 간섭을 넓히고 심화시킬 수 있었다고 말했습니다.

배럿은 AI가 "효율성의 거대한 엔진이 될 것이지만 허위 정보의 생산을 훨씬 더 효율적으로 만들 것"이라고 말했습니다

허위 정보는 또한 대중들이 그들을 덜 신뢰하도록 이끌 수 있기 때문에 뉴스 리포터들에게 위험할 수 있습니다.

그리고 AI는 뉴스 미디어 그룹의 재정 문제를 악화시킬 수 있습니다. 연구원들은 사람들이 대신 ChatGPT에서 답을 찾을 수 있기 때문에 뉴스 보도를 찾을 가능성이 낮다고 말합니다. 이 보고서에 따르면 이로 인해 뉴스 사이트의 트래픽이 감소하여 광고 수익이 감소할 수 있습니다.

하지만, AI는 또한 뉴스 산업에도 도움이 될 수 있습니다. 이 기술은 데이터를 검사하고, 출처를 확인하고, 헤드라인을 신속하게 생성할 수 있습니다.

그 보고서는 정부가 앞으로 AI 기업들을 더 감독할 것을 촉구합니다.

Barrett은 "의회, 규제 기관, 대중 및 업계는 즉각적인 잠재적 위험에 주의를 기울여야 합니다."라고 말했습니다.

반응형

댓글