스캐터랩 블로그
Featured
RLHF 외에 LLM이 피드백을 학습할 수 있는 방법은 무엇이 있을까?
"RLHF 외에 Human feedback을 학습할 수 있는 방법론들에 대해서 소개하고 핑퐁팀에서 실험한 경험을 공유합니다."
멀티턴 이미지 대화: 조규성 vs 안정환, 루다야 누가 더 잘생겼어?
더 나은 생성모델을 위해 RLHF로 피드백 학습시키기
ACL 2023 Review
읽씹할 결심 - 생성 모델에게 답변 시간 가르치기
Luda Gen 1, 더 재미있고 자연스러운 대화로 돌아온 루다 2편 - 생성 모델을 챗봇으로 빚어내기
생성 모델 Luda Gen 1을 어떻게 챗봇 모델로 학습했는지를 구체적으로 다룹니다.
EMNLP 2022 Review
핑퐁팀과 함께하는 EMNLP 2022 Review
Luda Gen 1, 더 재미있고 자연스러운 대화로 돌아온 루다 1편 - 생성 기반 챗봇
생성 모델 Luda Gen 1을 출시하기까지의 과정을 소개합니다
루다, 눈을 뜨다! 포토챗 베타의 멀티모달 기술 소개
포토챗 베타 서비스를 출시하기까지의 연구 과정을 소개합니다.
VPT: 다이아몬드 곡괭이를 만들기 위한 여정
OpenAI에서 어떻게 다이아몬드 곡괭이를 만들었는지 알아봅니다. (VPT)
Continual Learning: 꾸준히 성장하는 모델을 만들기 위한 기술
주제별로 알아보는 continual learning
ACL 2022 Review
핑퐁팀과 함께하는 ACL 2022 Review
EMNLP 2020 프리뷰
알아두면 쓸데있는 신비한 EMNLP 2020! 저희가 준비해보았습니다.
핑퐁팀 ML 세미나, 그 여섯 번째
핑퐁 ML 리서치 사이언티스트들의 시즌 6 세미나 자료
핑퐁팀 ML 세미나, 그 다섯 번째
핑퐁 ML 리서치 사이언티스트들과 엔지니어들의 시즌 5 세미나 자료
핑퐁팀과 함께하는 ACL 2020 리뷰
ACL 2020에 발표되었던 논문들을 추려서 리뷰해보았습니다.
꼼꼼하고 이해하기 쉬운 ELECTRA 논문 리뷰
Review of ELECTRA: Pre-training Text Encoders as Discriminators Rather Than Generators
꼼꼼하고 이해하기 쉬운 Reformer 리뷰
Review of Reformer: The Efficient Transformer
TensorFlow TPU 학습 101
Google ML 서비스의 심장으로 학습하기
핑퐁팀 ML 세미나, 그 네번째
핑퐁 ML 리서치 사이언티스트들의 시즌 4 세미나 자료
Transformer - Harder, Better, Faster, Stronger
Transformer 구조체와 이 구조를 향상시키기 위한 기법들을 같이 알아봅시다.
EMNLP 2019 Review - 핑퐁팀이 보고, 듣고, 느낀 점
핑퐁팀이 EMNLP 2019에 가서 보았던 인상 깊었던 논문들을 리뷰해 보았습니다.
EMNLP-IJCNLP 2019 프리뷰
EMNLP-IJCNLP 2019 in Hong Kong (Nov 3-7, 2019) 미리 한번 살펴보자!
핑퐁팀 ML 세미나, 그 세번째
핑퐁 ML 리서치 사이언티스트들의 시즌 3 세미나 자료
핑퐁팀 ML 세미나, 그 두 번째
핑퐁 ML 리서치 사이언티스트들의 시즌 2 (Question Answering) 세미나 자료
꼼꼼하고 이해하기 쉬운 XLNet 논문 리뷰
Review of XLNet: Generalized Autoregressive Pretraining for Language Understanding
핑퐁팀 ML 세미나, 그 시작
핑퐁 ML 리서치 사이언티스트들의 시즌 1 (Dialog System) 세미나 자료