ML Engineer

Byungsoo Kang

Notes on LLM systems, recommendation, translation, and multimodal research. Projects, experiments, and essays.

밀도 높은 문장은 복원이 더 어렵다 — Part 2: Diffusion과 검증

문장을 완전히 파괴한 뒤 복원하면, 밀도 높은 문장은 더 오래 불확실한 상태를 유지한다. Diffusion 관점의 밀도 분석과 100문장+100쌍 검증 실험.

트랜스포머는 글의 밀도를 느끼는가 — Part 1: Encoder와 Decoder

같은 토큰 수의 문장인데 담긴 정보량이 다르다. 트랜스포머 모델은 이 차이를 내부적으로 어떻게 처리하는가? PER 메트릭 제안부터 Encoder/Decoder 내부 신호 분석까지.

April 5, 2026 KR
추천 알고리즘 해킹: 워터마크부터 영혼 주입까지

사람이 아닌 알고리즘을 설득하는 시대. 보이지 않는 워터마크부터 벡터 DB 인젝션, 그리고 '영혼 붙여넣기' 전략까지. 추천 시스템의 간택을 받기 위한 기술적 접근과 그 한계에 대하여.

December 9, 2025 KR
Nested Learning: The Illusion of Deep Learning Architectures 논문 번역본

Technical reflections and working notes.

November 9, 2025 KR
LLM 추천 시스템의 상업화와 플랫폼 권력 투쟁

LLM에게 의지와 열정이 있을까? 그리고 LLM 기반 추천 시스템이 상업화되면서 플랫폼, 브랜드, 판매자 사이에서 벌어질 권력 투쟁과 생존 전략을 탐구한다. Booking.com부터 ChatGPT까지, 새로운 추천 생태계에서 누가 승자가 될 것인가?

November 6, 2025 KR
Transformer Encoder와 Decoder 차이 탐구

GNN과 SBERT 임베딩에서 시작해 Transformer의 Encoder-only와 Decoder-only 모델의 차이, 임베딩 과정까지 탐구한 인사이트.

October 21, 2025 KR
Diving into AI Watermarks

AI 워터마크 기술의 작동 원리부터 최신 연구, 안전성 및 정렬성 관점, 그리고 적대적 테스트 사례를 탐구한 대화 요약.

October 20, 2025 EN