Byungsoo Kang
Notes on LLM systems, recommendation, translation, and multimodal research. Projects, experiments, and essays.
밀도 높은 문장은 복원이 더 어렵다 — Part 2: Diffusion과 검증
문장을 완전히 파괴한 뒤 복원하면, 밀도 높은 문장은 더 오래 불확실한 상태를 유지한다. Diffusion 관점의 밀도 분석과 100문장+100쌍 검증 실험.
Recent
All articles →같은 토큰 수의 문장인데 담긴 정보량이 다르다. 트랜스포머 모델은 이 차이를 내부적으로 어떻게 처리하는가? PER 메트릭 제안부터 Encoder/Decoder 내부 신호 분석까지.
사람이 아닌 알고리즘을 설득하는 시대. GEO 전략, 벡터 DB 인젝션, 잠재 스타일 전이까지 — 추천 시스템의 간택을 받기 위한 기술적 접근과 그 한계, 그리고 윤리적 경계선.
딥러닝의 근본적 한계를 지적하고 중첩 최적화로 새로운 패러다임을 제시하는 Nested Learning 논문의 번역과 심층 분석. 옵티마이저가 연합기억 모듈이라는 혁신적 통찰.
LLM에게 의지와 열정이 있을까? 그리고 LLM 기반 추천 시스템이 상업화되면서 플랫폼, 브랜드, 판매자 사이에서 벌어질 권력 투쟁과 생존 전략을 탐구한다. Booking.com부터 ChatGPT까지, 새로운 추천 생태계에서 누가 승자가 될 것인가?
원래 하나였던 Transformer가 Encoder-only와 Decoder-only로 갈라진 이유, 각 아키텍처의 기술적 차이, 그리고 Decoder-only가 승리한 배경을 깊이 탐구한다.
AI 생성 콘텐츠에 숨겨진 워터마크의 기술적 원리부터 제거 공격, 레드팀 테스트, 규제 동향까지. 딥페이크 시대의 진위 검증 기술을 깊이 탐구한다.