챗봇은 신뢰할 수 있는 스마트 비서처럼 보일 수 있지만 전문가들은 AI 기반 에이전트에 너무 개인적으로 접근하지 말라고 경고합니다.
최근 설문조사 데이터 클리블랜드 클리닉 미국인 5명 중 1명은 AI에게 건강 조언을 요청한 것으로 나타났습니다. 어둠 미국인의 약 25%가 치료 세션 동안 챗봇을 사용할 가능성이 더 높다는 사실을 발견했습니다.
그러나 전문가들은 특히 의료 정보와 관련하여 AI 챗봇과의 과도한 공유에 대해 사용자에게 경고하고 있습니다.
에 따르면 USA 투데이사람들은 건강 보험 이전 및 책임에 관한 법률(HIPAA)을 준수하지 않는 의료 및 건강 데이터를 AI에 공개하는 것을 피해야 합니다.
부터 ChatGPT와 같은 챗봇 HIPAA를 준수하지 않으므로 임상 환경에서 환자 기록을 요약하는 데 사용해서는 안 되며 민감한 데이터에 접근해서도 안 됩니다.
즉, 빠른 답변을 원할 경우 잠재적으로 악용될 수 있는 귀하의 이름이나 기타 식별 정보를 생략해야 한다고 USA Today가 보도했습니다.
이 매체는 또한 다른 사람에 대한 정보를 업로드하는 것과 마찬가지로 노골적인 콘텐츠와 불법적인 조언은 금지되어 있다고 경고했습니다.
사이버 보안 회사인 Kaspersky의 Stan Kaminsky는 이전에 “기억하세요: 당신이 챗봇에 작성한 모든 내용은 당신에게 불리하게 사용될 수 있습니다”라고 말했습니다. 태양.
로그인 자격 증명, 금융 정보, 보안 질문에 대한 답변, 이름, 전화번호, 주소도 AI 챗봇과 공유해서는 안 됩니다. 해당 민감한 데이터는 악의적인 행위자가 귀하에게 불리하게 사용될 수 있습니다.
Kaminsky는 계속해서 “귀하, 회사 또는 고객에 속한 비밀번호, 여권 또는 은행 카드 번호, 주소, 전화번호, 이름 또는 기타 개인 데이터가 AI와의 채팅으로 끝나서는 안 됩니다.”라고 덧붙였습니다.
“요청 시 별표나 ‘편집됨’으로 바꿀 수 있습니다.”
귀하의 회사에 대한 기밀 정보 또한 중요한 개인 정보 보호 허위 행위입니다.
Kaminsky는 “예를 들어 요약본을 얻기 위해 작업 문서를 업로드하고 싶은 강한 유혹이 있을 수 있습니다.”라고 말했습니다.
“그러나 여러 페이지로 구성된 문서를 부주의하게 업로드하면 기밀 데이터, 지적 재산 또는 신제품 출시일이나 전체 팀 급여와 같은 상업적 비밀이 유출될 위험이 있습니다.”