본문 바로가기

전체 글10

[학습기록] 머신러닝 기계학습(Machine Learning) : 기계가 일일이 코드로 명시하지 않은 동작을 데이터로부터 학습하여 실행할 수 있도록 하는 알고리즘을 개발하는 분야 종류 1. 지도학습(Supervised Learning) : 라벨링된 데이터가 있고, 피드백이 직관적이며 예측을 한다. 분류(Classification) : 훈련데이터를 통해 배우고 새로운 데이터를 mapping시킨다 회귀(Regression) : 다른 변수들 x가 주어지면 y를 예측한다 evaluation(모델평가) 모델 선택 성능 측정 교차 검증 → 예시 : knn, sv, 결정트리, 앙상블 기법(랜덤트리…), 선형회귀, 로지스틱 회귀, 신경망, 딥러닝 2. 비지도학습(Unsupervised Learning) clustering : 비슷한 그룹 .. 2023. 4. 27.
[혼공머신] chapter 9. 텍스트를 위한 인공 신경망 혼자 공부하는 머신러닝 + 딥러닝의 Chapter 9을 공부하면서 정리한 내용을 기반으로 작성하였다. 9-3 미완 09-1. 순차 데이터와 순환 신경망 - 순환 신경망을 사용해서 글을 분석할 수 있다. 순차 데이터 순차 데이터는 텍스트나 시계열 데이터(time series data)와 같이 순서에 의미가 있는 데이터를 말한다. 이전에 입력한 데이터를 기억하는 기능이 필요하다. 토큰 (token) : 분리된 단어 샘플 하나에 토큰이 여러 개가 있다. 1개의 토큰이 하나의 타임스텝에 해당한다. 토큰에 할당하는 정수 중 예약어 : 0(패딩), 1(문장의 시작), 2(어휘사전에 없는 토큰) 순환 신경망(recurrent neural network, RNN) 일반적인 완결 연결 신경망과 거의 비슷하지만, 이전 데.. 2023. 3. 27.
[혼공머신] chapter 8. 이미지를 위한 인공 신경망 혼자 공부하는 머신러닝 + 딥러닝의 Chapter 8을 공부하면서 정리한 내용을 기반으로 작성하였다. 08-1. 합성곱 신경망 합성곱 → 유용한 특성만 드러나게 함 → 2차원 구조를 그대로 사용하기 때문에, CNN을 이미지 처리에 뛰어난 성능을 보인다. 모델 훈련 처음에 가중치와 절편을 랜덤하게 초기화한다. 에포크를 반복하면서 경사 하강법 알고리즘을 사용하여 손실이 낮아지도록 최적의 가중치와 절편을 찾아간다. 특성 맵(feature map) 합성곱 계산을 통해 얻은 출력으로, 활성화 함수를 통과한 값을 나타낸다. 특성 맵의 값은 실수이다. 뉴런(neuron) = 필터(filter) = 커널(kernel) 합성곱 신경망에서는 뉴런을 필터, 커널이라고 부른다. 합성곱의 필수 하이퍼 파라미터 Conv2D의 첫.. 2023. 3. 13.
[혼공머신] chapter 7. 딥러닝 시작 (신경망 모델) 혼자 공부하는 머신러닝 + 딥러닝의 Chapter 7을 공부하면서 정리한 내용을 기반으로 작성하였다. 7-3 미완 07-1. 인공신경망 인공 신경망(ANN;artificial neural network) 가장 기본적인 인공 신경망은 확률적 경사 하강법을 사용하는 로지스틱 회귀와 같다. 이미지 분류 문제에는 인공 신경망이 잘 맞는다. 출력층 z값을 계산하는 단위를 유닛(unit)이라고 부른다. (예전에는 뉴런이라고 부름) 기존의 머신러닝 알고리즘이 잘 해결하지 못했던 문제에서 높은 성능을 발휘하는 새로운 종류의 머신러닝 알고리즘일 뿐이다. GPU(그래픽 처리장치)는 벡터와 행렬 연산에 매우 최적화 되어 있어 곱셈/덧셈이 많이 수행되는 인공 신경망에 큰 도움이 된다. 인공 신경망에서는 교차 검증을 살 사용하.. 2023. 3. 7.
[혼공머신] chapter 6. 군집 알고리즘 혼자 공부하는 머신러닝 + 딥러닝의 Chapter 6을 공부하면서 정리한 내용을 기반으로 작성하였다. 06-1. 군집 알고리즘 타깃데이터 즉, 미리 정한 정답은 없지만, 종류대로 모으고 분류할 수 있을까? 예를 들어, 고객들의 데이터를 그때 그때 받아서 같은 종류끼리 모아두는 것을 생각한다. → 비지도 학습 >> 이해해보자 (타깃데이터 즉 종류를 아는 상황을 가정) 사과, 바나나, 파인애플 사진을 분류해보고 싶다. 평균과의 오차값이 최대한 적은 샘플들을 모으면 된다. |픽셀값 - 해당 위치의 평균 픽셀값|의 합을 픽셀 개수로 나눠 평균을 구한다. 샘플 300개 있으므로, (1)의 값(각 샘플에 대한 평균값)이 300개 존재이다 여기서 오름차순으로 최초 100개 즉 작은 값 100개를 고른다 이 100개 .. 2023. 1. 31.
[혼공머신] chapter 5. 결정트리 혼자 공부하는 머신러닝 + 딥러닝의 Chapter 5를 공부하면서 정리한 내용을 기반으로 작성하였다. 05-1. 결정트리 0. 결정트리 특징 이전 챕터에서 배운 로지스틱 함수는 이해하고 설명하기 어렵다. process의 flow chart를 그리는 듯이 쉽게 설명해 주는 모델이 있을까? 바로 결정트리 (Decision Tree) 모델이다. 다음과 같이 분류문제를 적용할 수도 있고, DecisionTreeRegressor를 이용해 회귀문제를 이용할 수 있다. 특성의 scale이 결정트리에 영향을 미치지 않기 때문에, 표준화 전처리(input_data - mean /std)를 할 필요 없다! 결정트리는 앙상블 학습 알고리즘(신경망과 함께 높은 성능을 냄)의 기반이 된다 from sklearn.tree imp.. 2023. 1. 16.
[혼공머신] chapter 3. 회귀 - k최근접, 릿지/라쏘 혼자 공부하는 머신러닝 + 딥러닝의 Chapter 3을 공부하면서 정리한 내용을 기반으로 작성하였다. 03-1. k-최근접 이웃 회귀 - 회귀문제 다루는 법을 맛보는 장이다. 분류와 회귀 머신러닝 알고리즘은 지도학습 알고리즘과 비지도학습 알고리즘으로 나뉜다고 Chapter 02에서 배웠다. 여기서 지도 학습 알고리즘은 크게 분류와 회귀(regression)로 나뉜다. 분류는 샘플을 클래스 중 하나로 분류하는 것이고, 회귀는 분류하는 것이 아니라 임의의 숫자를 예측하는 것이다. 회귀는 정해진 클래스가 없고 임의의 수치를 출력한다. 분류 - 샘플을 클래스 중 하나로 분류하는 것 회귀 - 분류하는 것이 아니라 임의의 숫자를 예측하는 것 - 회귀는 정해진 클래스가 없고 임의의 수치를 출력한다. cf ) 회귀 알.. 2022. 12. 1.
[혼공머신] chapter 2. k-최근접 이웃 알고리즘 - 실습 혼자 공부하는 머신러닝 + 딥러닝의 Chapter 2를 공부하면서 정리한 내용을 기반으로 작성하였다. 이번 장에서는 책 순서와 달리, 개념과 실습을 구분해서 정리하였다. fish_length = [25.4, 26.3, 26.5, 29.0, 29.0, 29.7, 29.7, 30.0, 30.0, 30.7, 31.0, 31.0, 31.5, 32.0, 32.0, 32.0, 33.0, 33.0, 33.5, 33.5, 34.0, 34.0, 34.5, 35.0, 35.0, 35.0, 35.0, 36.0, 36.0, 37.0, 38.5, 38.5, 39.5, 41.0, 41.0, 9.8, 10.5, 10.6, 11.0, 11.2, 11.3, 11.8, 11.8, 12.0, 12.2, 12.4, 13.0, 14.3, 1.. 2022. 11. 24.