반응형
- [ 인공지능/인공지능 기초 ]VGGNet, GoogLeNet(Inception), ResNet, Transfer Learning2024-03-06 06:22:06이번 강의를 통해서는 다양한 모델들을 간단하게 리뷰해보면서 개발자가 어떤 생각을 가지고 디자인을 했을까?라고 생각할 수 있는 계기가 되었습니다 생각하면서 느꼈던 것은 꼭 수식적인 증명(물론 논문을 발표할 때는 필요하겠지만)뿐만 아니라 상상하는 대로 모델을 바꿀 수 있고 실제로 성능도 더 좋아질 수도 있다는 걸 느꼈습니다 그래서 딥러닝 연구 분야는 창의력, 사고력이 굉장히 중요한 분야이구나라는 생각을 했습니다 감사합니다 1. VGGNet VGGNet은 ILSVRC (Large Scale Visual Recognition Challenge)라는 이미지 넷(Image Net)의 사물 인식 대회에서 2014년에 2등을 했었던 모델이다 근데 왜 1등도 아니고 2등을...? 왜냐하면 단순한 구조로 좋은 성능을 보여..
- [ 인공지능/인공지능 기초 ]CNN 연산, Conv, Pooling, 컴퓨터 비젼2024-03-05 06:37:32최근에 같이 조대협님의 프로젝트를 진행하면서 만난 팀원분께 좋은 말씀을 많이 듣고 있다 같이 프로젝트를 진행하면서 아마 인사이트가 많이 변할 것 같다 확실히 다양한 사람들을 만나면서 의견을 공유해보는게 많이 도움이 되는 것 같다 1. 컴퓨터 비젼의 주요 TASK 컴퓨터는 이미지를 이해하지 못한다 컴퓨터는 모든 것들을 숫자로 이해를 하기 때문에 (정확히는 이진법) 입력되는 데이터들을 숫자로 변환해서 넣어주어야 한다 이미지를 학습시키기 위해 입력값으로 넣어주려고 하는 경우에는 어떻게 할 수 있을까? 컬러 이미지는 RGB로 구성되어 있고 각각의 값들은 0과 255사이의 값들이다. 즉, 깊이 3을 가지는 행렬들의 모임이라고 할 수 있다 이런식으로 이미지든 문자이든 숫자로 표현해서 넣어주어야 한다 컴퓨터 비젼 T..
- [ 인공지능/인공지능 기초 ]분류 알고리즘, 회귀 알고리즘2024-03-04 10:07:11포스트잍에 날짜만 적고 몇일차인지를 안 적으니까 좀 헷갈리는 것 같다 내일부터는 몇일차인지도 같이 적어야겠다 1. 분류 알고리즘 1-1. Decision Tree Classifier 의사 결정 나무 분류 알고리즘이라고 부름 1-2. RandomForest 하지만 하나의 의사 결정 트리를 사용하게 된다면 정확도는 높아지겠지만 오버피팅될 확률이 높아진다 그렇기 때문에 여러개의 의사 결정 트리를 사용하고 나온 값들을 다수결(voting)을 통해 오버피팅을 개선한 것이 Random Forest 이다 높은 정확도, 과적합 문제 해결, 많은 갯수의 독립변수를 다룰 수 있다 단점으로는 연산 시간이 오래 걸린다 1-3. XGBoost Voting을 하는 방식에는 하드 보팅과 소프트 보팅이 있다 하드 보팅은 다수의 분류..
- [ 인공지능/인공지능 기초 ]군집 알고리즘2024-03-03 08:35:44이번 강사님의 오티를 듣는데 체계적이고 실습도 많을 것 같아서 재밌어보인다는 생각이 들었다 기대가 되는구만 그리고 어제부터 조대협의 대항로 1기를 5주간 진행하게 되었는데 다들 15년차 급의 시니어들에다가 사업하시는 분들도 있고... 20대에 신입은 나 밖에 없는 것 같다;; 팀을 구성해서 프로젝트를 진행해야 하는데 조금 부담쓰~ 근데 머 일단 해보자. 설마 죽기야 하겄어? 1. 군집 알고리즘의 개념 및 활용 군집 알고리즘이란 주어진 데이터에서 구조와 패턴을 찾아서 유사한 개체를 그룹화하는 군집 분석에 쓰이는 알고리즘이다 그럼 군집 알고리즘을 통해서 무엇을 할 수 있을까? 이전에 했었던 분류랑 다르게 군집 분석은 비지도 학습이다. 군집 분석을 활용하면 기존에 알고 있던 기준이 아니라 새로운 관점에서 그 ..
- [ 인공지능/인공지능 기초 ]RNN2024-03-02 20:20:18안돼~ 혁펜하임님 파트가 끝났다ㅜㅜ 아숩~ 패캠 강의가 끝나고 나서는 혁펜하임님 커리큘럼이랑 논문 리뷰를 쭈욱 진행해봐야겠다 1. 연속적인 데이터와 RNN (Recurrent Neural Network) RNN은 이름 그대로 반복되는 인공 신경망이다 이전의 값들을 반복적으로 사용한다? 뭘 할 수 있을까? 댓글을 읽고 상대의 기분이 어떤지 예측? 주식 차트 예상? 번역? 1-1. RNN의 동작 방식 이전에 나왔던 출력값을 다시 사용하는 것이다 이때 레이어는 같은 것을 사용한다 수식으로 표현하면 다음과 같다 tanh( )는 하이퍼볼릭 탄젠트라는 액티베이션이다 시그모이드의 단점을 좀 보완한 형태이다 이런 식으로 이전의 값들을 계속 사용하기 때문에 RNN은 이전 정보를 계속 담고 있다고 볼 수 있다 2. RNN..
- [ 인공지능/인공지능 기초 ]컨볼루션, Padding, Stride, Pooling, CNN2024-03-01 12:48:03오늘은 삼일절이라 출근을 안했습니다ㅎㅎ 그리고 제 생일입니다~ 그리고 오랜만에 집에 내려와서 노트북으로 쓰느라 그림판이 더 엉망이네요 ㅜㅜ (아침부터 바빴네유) 1. 컬러 사진에 대한 컨볼루션 그러면 컬러 사진에 대해서는 컨볼루션을 어떻게 적용할 수 있을까? 일단 컬러니까 RGB로 3개 채널일 것이다 입력값이 3개의 채널을 가지고 있으므로 3x3 필터또한 각각의 채널에 스캔을 해야하므로 3개의 채널을 가지고 있어야 한다 그렇다면 필터를 꼭 하나만 써야할까? 고양이의 코, 고양이의 다리, 고양이의 귀 이런식으로 여러가지 필터를 적용해볼 수 있을 것이다. 그렇다면 어떻게 될까? 이렇게 입력 데이터의 채널과 동일한 채널을 가지는 필터를 그만큼 여러개로 늘리면 그만이다 그러면 이 필터를 거치면 어떤 출력값이 나..
- [ 인공지능/인공지능 기초 ]Overfitting 방지, CNN과 이미지의 상관 관계2024-02-29 07:44:40강의를 들으면서 모르는 용어나 헷갈리는 용어가 나오면 구글링을 하고 있는데 게시된 날짜를 보면 막 2017년에 올라왔던 글이고 그렇다 근데 7년이 지난 지금 공부하는 입장으로서 뒤처지고 있는건 아닐까? 라는 막연한 두려움이 생긴다 그래도 해야지 머 ㅇㅉ은 맞긴한데 내가 어떻게 저 사람들을 따라잡고 뛰어넘을건지는 앞으로 계속 고민을 해봐야겠다 1. Overfitting 방지 트레이닝 때는 잘하는데 테스트 때는 잘 못하는 것이 오버피팅이다 너무 오버피팅이 되어 버리면 위 그림처럼 덜 오버피팅된 것이 미확인 데이터와 로스가 더 적어질 수도 있는 상황이 연출된다 1-1. 모델을 좀 더 단순하게 그럼 너무 깊은 인공 신경망을 써서 생기는 문제이니, 신경망을 단순하게 하면 되지 않냐!! 생각이 많으면 오히려 일을 ..
- [ 인공지능/인공지능 기초 ]Univeral Approximation Theorem, Vanishing Gradient 방지2024-02-28 23:01:42어제 좀 달렸더니 아침에 못 일어났다...ㅎ 휴우... 겨우 시간 안에 작성했다;; 1. Univeral Approximation Theorem 지금까지 여러가지 액티베이션을 보면서 AI가 어떻게 학습하는지에 대해서 공부를 해보았다 근데 이렇게 만든 모델이 우리가 원하는 답을 잘 알려줄 수 있을까? 뭘 믿고? 무슨 근거로? 실컷 학습시켰더니 완전 이상하게 되어버릴 수도 있지 않은가 Univeral Approximation Theorem 이라는 증명이 이런 의심을 잠재워 줄 것이다 Univeral Approximation Theorem은 히든 레이어가 딱 한층만 있더라도 어떤 데이터든 Loss가 0인 연속 함수로 나타낼 수 있다라는 것을 보여준다 이렇게 히든 레이어 한 층만으로도 순차적으로 Loss 0인 ..
반응형