2023년 11월 27일
https://arxiv.org/abs/2311.14648
Calibrated Language Models Must Hallucinate (Adam Tauman Kalai, Santosh S. Vempala)
캘리브레이션이 되어있는 LM이 학습 데이터에 없는 사실을 생성(할루시네이션)할 확률은 그 사실과 관련된 사실들이 전체 데이터에서 단 한 번 등장한 비율에 의해 결정된다는 분석. 그러니까 학습 데이터에서 단 한 번만 등장하는 형태의 사실들이라면 (인용을 생성한다고 하면 데이터에서 단 한 번만 인용된 사례가 많다면) 할루시네이션이 발생할 수밖에 없다는 것이네요.
할루시네이션의 발생율은 캘리브레이션의 정도에 따라 바뀌기 때문에 할루시네이션을 억제하려면 캘리브레이션의 정도가 낮아질 수밖에 없다는 것도 시사하긴 합니다.
그렇지만 다르게 말하면 학습 데이터에 한 번 이상 등장하는 사실들에 대해서는 할루시네이션이 드물 것이라는 예측이기도 합니다. 그런데 실제로 그렇지 않다면 그건 모델의 Capacity의 문제에서 기인한 것이라고 볼 수 있지 않을까 제안하고 있네요.
#lm #hallucination
https://arxiv.org/abs/2311.14521
GaussianEditor: Swift and Controllable 3D Editing with Gaussian Splatting (Yiwen Chen, Zilong Chen, Chi Zhang, Feng Wang, Xiaofeng Yang, Yikai Wang, Zhongang Cai, Lei Yang, Huaping Liu, Guosheng Lin)
https://buaacyw.github.io/gaussian-editor/
Gaussian Splatting + 3D 이미지 에디팅. 2D Diffusion을 사용해서 편집하는데, inverse rendering으로 편집할 부분에 대한 마스크를 3D 가우시안들에 부여하는 것, 그리고 가우시안 포인트들이 학습 과정에서 지나치게 크게 변하지 않도록 해주는 것으로 Gaussian Splatting에 대해 편집을 할 수 있었습니다. 재미있네요.
#3d #image_editing #gaussian_splatting
https://arxiv.org/abs/2311.14543
Data-Efficient Alignment of Large Language Models with Human Feedback Through Natural Language (Di Jin, Shikib Mehri, Devamanyu Hazarika, Aishwarya Padmakumar, Sungjin Lee, Yang Liu, Mahdi Namazifar)
1000개의 프롬프트, 응답, 비평, 개선된 응답 데이터를 구축한 다음 이걸로 모델을 튜닝해서 효과를 봤네요. 비평을 생성하게 했을 때 성능 향상이 있었다, 다른 모델의 응답을 개선하는데 쓸 수 있었다, 반복적으로 적용해서 응답의 성능을 개선할 수 있었다는 결과입니다.
#llm #instruction-tuning