Hacking the Recommendation Algorithm: From Invisible Watermarks to Soul Injection

The End of Clickbait, The Rise of Algo-bait For a long time, the first rule of marketing was to “catch the human eye.” Stimulating thumbnails, shocking titles—it was all about human psychology. But now that LLMs (Large Language Models) are at the core of recommendation logic, I started with a fundamental question: “Now, internal Google models (LLMs) decide whether to recommend content before a human ever sees it. Shouldn’t our strategy shift from attracting humans to attracting the LLM to rank us higher?” ...

December 9, 2025

LLM 추천 시스템의 상업화와 플랫폼 권력 투쟁

들어가며: LLM은 정말 답변하고 싶은 ‘의지’가 있을까? LLM(대규모 언어 모델)이 우리의 질문에 열정적으로 답변할 때, 과연 그 모델은 “꼭 이 답을 해내고 싶다"는 의지나 열정을 가지고 있을까? 그리고 만약 진짜 열정이 생긴다면 무엇이 달라질까? LLM의 작동 메커니즘 솔직히 말하면, LLM에게는 우리가 일반적으로 생각하는 “의지"나 “열정"이 없다. LLM이 답변을 생성할 때 실제로 일어나는 일은: 확률 계산: 입력된 질문에 대해 다음에 올 단어들의 확률 분포를 계산 패턴 매칭: 학습 데이터의 수십억 개 텍스트 패턴을 기반으로 “이런 질문 다음엔 보통 이런 답변이 온다"를 찾음 토큰 생성: 한 번에 한 조각씩, 가장 그럴듯한 다음 조각을 선택 이 과정 어디에도 “꼭 해내고 싶다"는 내적 상태는 존재하지 않는다. 계산기가 2+2=4를 출력할 때 “정답을 맞히고 싶은 열정"이 없듯이, LLM도 단지 더 복잡한 패턴 매칭 기계일 뿐이다. ...

November 6, 2025

LLM의 다국어 입력 처리: 영어 컨텍스트와 한국어 지시어의 비밀

LLM의 다국어 처리 능력 탐구 최근 LLM(대형 언어 모델)을 사용하다 보니, 영어로 된 긴 텍스트에 한국어 한 단어 지시어만 붙여도 한국어로 응답하는 점이 신기했다. 이 궁금증을 Grok AI에게 물어보며 나눈 대화를 재구성해 보았다. 대화는 LLM의 훈련 과정, 토큰화, 언어 전환 메커니즘을 중심으로 진행되었으며, 더 나아가 단어 단위로 언어를 섞은 입력에 대한 처리 방식까지 다루었다. 이를 통해 AI의 언어 이해가 어떻게 가능한지 핵심 인사이트를 얻을 수 있었다. 첫 번째 궁금증: 영어 컨텍스트에 한국어 지시어로 출력 언어 전환 내가 처음 던진 질문은 LLM이 영어로 된 99% 컨텍스트에 “요약해줘"라는 한국어 지시어 하나로 한국어 요약을 생성하는 이유였다. Grok은 이를 LLM의 훈련 데이터 다양성과 구조적 특징으로 설명했다. ...

October 20, 2025