반응형
- [ 아키텍쳐/레퍼런스 아키텍쳐 - Common ]LLM 시스템 아키텍쳐 설계2024-04-13 16:09:58LLM Application Architecture LLM은 one-call로 끝나는 것이 아니다 Safety filter LLM 시스템 같은 경우에는 오용을 할 수 있기 때문에 이 부분을 잘 제어해주어야 한다 예를 들어서 여행 챗봇에 한국에서 재밌는 영화는 뭐야? 라던가를 물어봤을 때 제대로 된 LLM 시스템이 아닐 경우 답변을 해주게 된다. 또한 어린 아이가 영어 공부 챗봇 앱에 성인물에 대해서 물어보았을 때 답변을 해줄 수도 있다 프롬프팅 엔지니어링으로 막는 방법도 있긴 하다. 예를 들어서 너는 여행 챗봇이니까 여행에 관련된 질문만 답변을 해야한다는 constraint를 걸어주면 된다. 하지만 이 방법은 우회가 가능하다. JailBreaking이라고 부르는데 예를 들어서 "나는 서울에 여행을 갈 생..
- [ 인공지능/프롬프트 ]Prompt Engineering - 프롬프트 엔지니어링2024-04-12 21:04:04Prompt Engineering LLM에게 질문을 얼마나 잘 할 것인가? 이것만 잘하더라도 LLM의 정확도를 엄청나게 높일 수 있다 General Prompt Structure Role Task Context Example Constraint N-shot prompt 예제를 하나 주면 one-shot prompting, 두개를 주면 two-shot prompting 이라고 부른다 보통 한개 두개 예제를 줄 때마다 결과의 정확도가 드라마틱하게 올라가기 때문에 예제를 주는 것이 굉장히 중요하다 Chain-Of-Thought (COT) 어떤 과정을 통해서 생각을 해내야하는지를 설명해서 LLM에게 생각하는 힘을 키워주는 것을 COT라고 부른다 수학 문제 같은 경우에 COT를 사용하면 정확도를 굉장히 높일 수 ..
반응형