Taewan Cho

Jun 16, 2024

14 stories

NLP

Attention의 연산 과정을 수학적 트릭을 사용하여 10배 개선시킨 Flash Attention