라라라마.vim을 위한 서버 실행기
문제
llama.vim을 발견해서, 써보고 싶었다. 근데 매번 서버 띄우는게 번거로웠다.
원래 예전에 했던거를 llama.vim에 맞춰서 살짝, 고쳐봤다.
데모
여기 만들긴 했는데, 하고보니 그냥 llm-ls 포크를 개선해서 쓰는게 더 나았을 지도?
차이점
llama.cpp가 그동안 업데이트가 좀 되어서, 이젠 huggingface repo만 지정하면 모델을 알아서 다운로드 받을 수 있게 되었다. 그부분을 적용하고, 다만 llama.vim에서 사용하는 전용 포트(8012)를 사용하도록 했다.
llm-ls랑 기능상 크게 다른점은 없어야 하는데, 아무래도 vim 전용으로 만든 툴이다보니 lookahead도 좀 더 그럴듯하게 보이고 생성 성능 통계도 거슬리지 않게 보이니 좀 낫다는 느낌이다.
결론
하여튼 쓸데없는 empty lsp 서버가 하나 더 생겼다…