반응형
- [ 인공지능/프롬프트 ]Prompt Engineering - 프롬프트 엔지니어링2024-04-12 21:04:04Prompt Engineering LLM에게 질문을 얼마나 잘 할 것인가? 이것만 잘하더라도 LLM의 정확도를 엄청나게 높일 수 있다 General Prompt Structure Role Task Context Example Constraint N-shot prompt 예제를 하나 주면 one-shot prompting, 두개를 주면 two-shot prompting 이라고 부른다 보통 한개 두개 예제를 줄 때마다 결과의 정확도가 드라마틱하게 올라가기 때문에 예제를 주는 것이 굉장히 중요하다 Chain-Of-Thought (COT) 어떤 과정을 통해서 생각을 해내야하는지를 설명해서 LLM에게 생각하는 힘을 키워주는 것을 COT라고 부른다 수학 문제 같은 경우에 COT를 사용하면 정확도를 굉장히 높일 수 ..
- [ 인공지능/인공지능 기초 ]머신러닝 Learning Path2024-04-09 06:18:521. 기본 개념 쌓기 기초 https://hunkim.github.io/ml/ 모두를 위한 머신러닝/딥러닝 강의 hunkim.github.io 고급 https://developers.google.com/machine-learning/crash-course?hl=ko Machine Learning | Google for Developers 이 페이지는 Cloud Translation API를 통해 번역되었습니다. 의견 보내기 컬렉션을 사용해 정리하기 내 환경설정을 기준으로 콘텐츠를 저장하고 분류하세요. 머신러닝 단기집중과정TensorFlow API 사용 Go developers.google.com 2. Hands-On https://www.datacamp.com/ Python 과정 이런 것들 수료하면 됨 ..
- [ 인공지능/프롬프트 ]프롬프트 엔지니어링으로 텍스트 처리해보기2024-04-02 22:05:03답변 결과의 정확도 평가 qa_data = { "question": [ "In a website browser address bar, what does “www” stand for?", "Who was the first woman to win a Nobel Prize", "What is the name of the Earth’s largest ocean?", ], "answer_groundtruth": ["World Wide Web", "Marie Curie", "The Pacific Ocean"], } qa_data_df = pd.DataFrame(qa_data) qa_data_df PaLM 2세대 모델을 사용하여 답변을 얻고 answer_prediction 열에 저장해봅시다 def get_answer..
- [ 인공지능/프롬프트 ]프롬프트 디자인2024-03-31 14:43:34구글 스터디잼을 진행하면서 프롬프트 디자인이 나와서 간단하게 정리하고자 한다 Setup - VertexAI 활용 !pip install --user langchain==0.0.310 \ google-cloud-aiplatform==1.35.0 \ prettyprinter==0.18.0 \ wikipedia==1.4.0 \ chromadb==0.3.26 \ tiktoken==0.5.1 \ tabulate==0.9.0 \ sqlalchemy-bigquery==1.8.0 \ google-cloud-bigquery==3.11.4 import vertexai import os import IPython from langchain.llms import VertexAI from IPython.display impor..
- [ 인공지능/강화학습 ]Policy Iteration2024-03-31 08:23:56벌써 오늘이 마지막 날이다 어제 조대협님의 대항로도 끝을 맺었고... 다시 리프레시할겸 계획을 세워야 겠다 구글 스터디잼 + AWS 자격증 + 사이드 프로젝트 + 독서 + 운동 +...ㅎ 나는 계속 매일 블로그를 올려볼 생각이다. 원래는 패스트캠퍼스 강의 남은걸로 진행할까 했는데 구글 스터디잼도 괜찮을 것 같다. 여튼 뭐가 됐든ㅎ 이전에는 벨류를 구하는 방법을 찾았으니, 이번에는 최적의 폴리시를 구하는 방법을 알아보자 이전과 같은 작은 MDP 문제를 사용해보자 작은 문제 작다는 것은 다음의 가짓수가 작은 것을 의미함 A c t io n s p a c e S t a t e s p a c e T im e h o r iz o n M D P 를 알 때 𝑀𝐷𝑃 ≡ {𝑆, 𝐴, 𝑅, 𝑃, 𝛾} 𝑅, 𝑃 를 알 때 ..
- [ 인공지능/강화학습 ]MDP를 알 때의 플래닝2024-03-30 12:06:41마음을 다시 굳게 먹자 해이해졌어 김재형 계획을 다시 세우자 그리고 매일 상상하자 구체화시키고 실현시키자 겁먹지 말자 무엇을 하든 지금보단 나을테니까... 나는 지금 단거리가 아닌 마라톤을 해야 한다. 그러니까 지속적으로 할 수 있는 원동력이 필요하다. 사소한 것에서 성취감을 찾으려고 노력하자. 무뎌지지 말자. 포기하지말자 지금의 난 아무것도 아니지만 5년 후의 나는 어떻게 되어있을까? 기대되지 않는가? 술취한 사람의 귀가 문제 각 스테이트의 밸류는 무엇일까? 이 문제에서 우리는 MDP를 알고 있다 𝑀𝐷𝑃 ≡ {𝑆, 𝐴, 𝑅, 𝑃, 𝛾} 𝑅, 𝑃 를 알 때 여기서 안 다는 것은 해보기도 전에 미리 아는 것 그리고 이 문제는 MDP가 작은 문제라고 볼 수 있다 작다고 하는 것은 다음의 가짓수가 작은 것을 ..
- [ 인공지능/강화학습 ]벨만 최적 방정식2024-03-29 06:38:07아 졸려... 벨만 최적 방정식 Bellman Optimality Equation 벨만 최적 방적식도 앞에서 보았던 벨만 기대 방정식과 비슷하게 0단계와 1,2단계로 나누어져있다 0단계 $v_{*}(s_t) = \max_a \mathbb{E}[r_{t+1} + \gamma v_{*}(s_{t+1})]$ $q_{*}(s_t, a_t) = \mathbb{E}[r_{t+1} + \gamma \max_{a'} q_{*}(s_{t+1}, a')]$ maxa는 모든 가능한 행동 a에 대하여 최댓값을 선택함을 의미하며, E는 기댓값을 의미 1단계 $v_*(s) = \max_a q_*(s, a)$ $q_*(s, a) = r_s^a + \gamma \sum_{s' \in S} P_{ss'}^a v_*(s')$ 2단계 $..
- [ 인공지능/강화학습 ]벨만 기대 방정식2024-03-28 06:17:07석사 취득 후, 박사? 기술사? 현실적인 상황을 고려... 박사는 돈과 시간, 기술사는 시간과 상대적 낮은 기대 수익 아버지...! 청주에서 듣고 있다면 정답을 알려줘... 강화학습에서 벨류를 구하는 것은 매우 중요하다 그렇다면 벨류를 어떻게 구할 수 있을까? 벨만 방정식 벨만 방정식에는 벨만 기대 방정식(Bellman Expectation Equation)과 벨만 최적 방정식(Bellman Optimality Equation)이 있다 벨만 기대 방정식 (Bellman Expectation Equation) 벨만 기대 방정식은 0단계, 1단계, 2단계로 이루어진다 벨만 기대 방정식은 벨류들의 재귀적 관계에 대한 식이다 0단계 $v_{\pi}(s_t) = \mathbb{E}_{\pi}[r_{t+1} + \..
반응형