반응형
- [ 인공지능/인공지능 기초 ]Univeral Approximation Theorem, Vanishing Gradient 방지2024-02-28 23:01:42어제 좀 달렸더니 아침에 못 일어났다...ㅎ 휴우... 겨우 시간 안에 작성했다;; 1. Univeral Approximation Theorem 지금까지 여러가지 액티베이션을 보면서 AI가 어떻게 학습하는지에 대해서 공부를 해보았다 근데 이렇게 만든 모델이 우리가 원하는 답을 잘 알려줄 수 있을까? 뭘 믿고? 무슨 근거로? 실컷 학습시켰더니 완전 이상하게 되어버릴 수도 있지 않은가 Univeral Approximation Theorem 이라는 증명이 이런 의심을 잠재워 줄 것이다 Univeral Approximation Theorem은 히든 레이어가 딱 한층만 있더라도 어떤 데이터든 Loss가 0인 연속 함수로 나타낼 수 있다라는 것을 보여준다 이렇게 히든 레이어 한 층만으로도 순차적으로 Loss 0인 ..
- [ 인공지능/인공지능 기초 ]MSE, log-likelihood, MLE, 다중 분류2024-02-27 07:52:14혁펜하임 선생님의 강의의 가장 좋은 점은 생각할 수 있는 방법을 기르게 한다는 점이다 이거 듣고 혁펜하임 커리큘럼에 맞게 수업들어야 겠다 지갑 열어 왜 이런식으로 나오고 어떻게 생각했는지가 중요하다 누구나 알고 있지만 가장 어려운 것...ㅎ 1. MSE vs Log-Likelihood 로스 함수 중에 MSE와 Log-Likelihood가 있다 MSE는 선형회귀, Log-Likelihood는 이진 분류에 많이 사용한다 Likelihood는 관측된 사건이 고정된 상태에서, 확률 분포가 변화될 때(=확률 분포를 모를 때 = 가정할 때), 확률을 표현하는 단어이다 2. 로스 함수를 결정하는 방법 : 해석의 차이 그럼 로스 함수는 어떤걸 기준으로 정하면 될까? 그냥 선형회귀에는 MSE를 사용하고, 이진 분류에는 ..
- [ 인공지능/인공지능 기초 ]비선형 액티베이션, 역전파, 이진분류2024-02-26 07:36:04다양한 해석이 가능하다는 것을 보여주기 위해서 여러가지를 보여주시는데 어렵네요 해석이 가능할려면 일단 이해를 하고 있어야 하는데, 하나 하나 이해하기가 벅차군... 이진 분류, 베르누이 분포, 시그모이드, 로짓 어쩌구~ 흐흐흐 점심 나가서 먹을 것 같아 1. 비선형 액티베이션 (Non-Linear Activation)이 중요한 이유 지난번에 인공신경망을 수식으로 표현해보았다 그렇다면 더 깊은 더더 깊은 인경 신공망도 표현할 수 있을까? 할 수 있다! 단, 비선형 액티베이션일 때만! 왜 선형 액티베이션에서는 안되는걸까? 선형 액티베이션에서는 인공 신경망이 아무리 깊어져도 의미가 없어진다 인공 신경망이 아무리 깊어진다고 할 지라도 선형 액티베이션이라면 히든 레이어가 다 의미가 없어짐 따라서, non-line..
- [ 인공지능/인공지능 기초 ]Momentum, Adam, Validation, DNN2024-02-25 11:47:09앞부분 강의는 들으면서 나중에 이해될거야! 하면서 일단 받아들이는 느낌으로 갔었는데 혁펜하임 성님 강의는 기초부터 찬찬히 설명해주셔서 이해가 쏙쏙되니까 들을 맛이 난다!!! (물론 이해 안되는 부분도 있긴 함ㅎ) 언젠가 인공지능 박사까지 취득하는 그 날을 상상하며 오늘도 달려보자~! 0. Optimizer Optimizer는 딥러닝에서 Network가 빠르고 정확하게 학습하는 것을 목표로 한다 밑에 그림들은 포스팅 전체를 읽고 다시 훑어보면 좋을 것 같다 1. Momentum vs RMSProp (Root Mean Square Propagation) 1-1. Momentum 모멘텀이랑 관성, 탄성, 가속도를 의미하는 단어이다 즉, SGD처럼 휙휙 꺾이지 말고 이전의 그라디언트를 계속 고려해주며 마치 관성..
- [ 인공지능/인공지능 기초 ]선형 회귀, 경사 하강법, 가중치 초기화, SGD2024-02-24 13:15:25유튜브에서 "이해라는 것은 뒤늦게 찾아온다" 라는 말을 들은 적이 있다 확실히 처음 들었을 때는 잘 몰랐던 것들이 계속 공부를 하다보니 조금씩 이해가 되는 부분이 많은 것 같다 그러니까 이해 안돼도 닥치고 그냥 하자 1. 선형 회귀 (Linear Regression) 선형 회귀란 입력과 출력 간의 (선형적인 데이터에서) 관계를 파악하여 처음 보는 입력에 대해서도 적합한 출력을 얻는 것 예를 들어 키와 몸무게의 선형적인 관계를 파악해서 데이터에 없는 키가 주어졌을 때에도 적합한 몸무게를 예측할 수 있다 즉, f(x)=ax+b에서 적절한 a와 b를 찾는 것이 목표인데 어떻게? 어떤 기준으로? 찾을 수 있을까? 바로 loss(또는 cost)를 최소화하는 a와 b를 찾는 것이 최종 목표가 되겠다 Loss 함수에..
- [ 인공지능/인공지능 기초 ]비지도, 자기지도, 강화학습, 인공신경망2024-02-23 21:41:44혁펜하임 강의 재밌다!!! 외쳐 혁펜하임!!! https://www.youtube.com/@hyukppen 혁펜하임 | AI & 딥러닝 강의 현) 성균관대학교 의과대학 초빙강사 현) 혁펜하임 아카데미 대표 전) 삼성전자 책임연구원 AI 강의 / 딥러닝 강의 등 최고의 설명법을 연구, 개발합니다. ‘혁펜하임’은 신호처리 분야의 전설 www.youtube.com 1. 비지도 학습 비지도 학습이란 지도 학습과 반대로 정답을 모르는 상태에서 학습하는 것을 말한다 군집화 (K-means, DBSCAN, …) 군집화는 개체들을 비슷한 것끼리 그룹을 나누는 것을 말한다 차원 축소 (데이터 전처리 : PCA, SVD, …) 데이터 세트를 그대로 사용하지 하지 않고 데이터 로더를 사용하여 전처리를 하는 것을 말한다 이때..
- [ 인공지능/인공지능 기초 ]CNN, RNN, GAN, 지도 학습2024-02-22 06:53:47드디어 진짜 인공지능이 어떤건지 개념들에 대해서 강의가 시작되었다!!! 오예~ 딥러닝 공부할 때 논문을 많이 읽는게 답이라고 해서 어제 좀 찾아보다가 바로 덮었다ㅋ 영어;; 영어 공부 좀 하자... 1. AI(Artificial Intelligence) vs ML(Machine Leanring) vs DL(Deep Learning) AI 즉, 인공지능이란 사람의 사고 방식을 흉내낸 것을 의미한다 보통 사람은 어떻게 사고를 할까? 아기들을 생각해보면 주변에 보이는 행동들을 따라하면서 학습을 한다 즉, 많은 양의 데이터들이 입력이 되고 그에 맞는 행동들이 출력이 되는 것이다 이것처럼 똑같이 AI 모델에 많은 양의 데이터를 입력하여 학습시키고 우리가 원하는 출력값을 얻을 수 있는 것이다 AI, ML, DL은 ..
- [ 인공지능/프레임워크 or 라이브러리 ]데이터 로더, 모델 실습, 로깅2024-02-21 07:13:11가보자 가보자 1. 데이터 로더 (Data Loader) 데이터 세트가 항상 내가 원하는 형식으로 되어있지 않기 때문에 데이터를 불러올 때 특정한 형식으로 불러올 수 있어야 한다 이때 커스텀 데이터 로더를 구성해서 이용할 수 있다 다음 같은 구성으로 데이터 로더를 만들 수 있다 1-1. 꽃 분류 데이터 세트 불러오기 꽃 분류 데이터 세트 구성 커스텀 데이터 로더 구성하기 import torch from torchvision import transforms from torch.utils.data import DataLoader from PIL import Image from IPython.display import display import matplotlib.pyplot as plt import nump..
반응형