ChatGPT 투자 추천 어디까지 믿을 수 있을까

“요즘 어떤 종목이 좋아보여?”

“오늘 살까? 아니면 기다릴까?”

이제는 주식을 사기 전에도 먼저 ChatGPT에 묻는 시대가 됐다.

EY가 2026년 4월 발표한 글로벌 AI 인식 조사에 따르면, 23개국 응답자 가운데 49%가 최근 6개월 안에 저축이나 투자 관련 의사결정을 보조하는 데 AI를 활용했다고 답했다.

채택률은 Z세대, 대졸자, 정규직 종사자 사이에서 가장 높았다.

검색창보다 대화창에 돈 문제를 적는 흐름이 뚜렷해지고 있다.

하지만 대부분 놓치는 부분이 있다.

영국 금융감독청(FCA)은 AI에 대한 별도의 규제를 만들지 않는다는 입장을 분명히 했다. 대신 기존 소비자 보호 규정과 자문업 인가 체계를 그대로 적용한다.

ChatGPT나 Claude처럼 인가받지 않은 범용 AI의 투자 의견은 금융 자문이 아니다. 따라서 손실이 발생해도 기존 자문처럼 보호받기 어렵다. 게다가 여러 공개 테스트에서 반복적으로 지적된 문제가 있다. AI가 세법 한도나 투자 규정처럼 이미 바뀐 수치를 그대로 가져와 현재 기준인 것처럼 제시한다는 점이다.

AI가 써준 답변은 대체로 그럴듯하다. 하지만 그럴듯한 문장이 항상 정확한 것은 아니다. AI의 답변이 틀렸을 때 책임은 결국 사용자에게 남게 된다.

우리는 “AI가 다 해준다”는 말도, “AI는 위험하니 쓰지 말라”는 말도 하지 않는다.

둘 다 판단을 포기한 태도다.

대신 세 가지를 본다.

AI 답변에서 빠진 변수는 무엇인가. 그 답변을 한국 시장과 내 자산 규모에 맞게 다시 계산하면 결과가 어떻게 달라지는가. 그리고 AI가 제시한 선택과 반대 선택 중, 손실이 더 작은 쪽은 어디인가.

같은 데이터를 봐도 결론은 달라진다. 차이를 만드는 건 정보의 양이 아니라, 그 정보를 어디까지 검증했는가다.

매주 한 가지 사례를 다룬다. AI가 내놓은 투자 판단, 사업 분석, 콘텐츠 전략을 가져와 어디까지 쓸 만하고 어디서부터 위험한지 분해한다. 결론을 미리 정해두지 않는다.

읽고 난 뒤 시장을 바라보는 기준이 달라지지 않는다면, 그 정보는 오래 남기 어렵다.

댓글 달기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다

위로 스크롤