코딩이 모래?

고정 헤더 영역

글 제목

메뉴 레이어

코딩이 모래?

메뉴 리스트

  • 홈
  • 태그
  • 방명록
  • 분류 전체보기 (90)
    • Node.js (3)
    • React (23)
      • Next (9)
      • 네이버 클론 (3)
      • 당근마켓 클론 (3)
      • 넷플릭스 클론 (6)
    • Javascript (9)
    • 백준 풀이 (0)
    • 알고리즘 (1)
    • c++ (4)
    • Python (1)
    • 프로젝트 정리 (10)
      • 모현에서 모먹지 (4)
      • 대충 (3)
    • AI (16)

검색 레이어

코딩이 모래?

검색 영역

컨텐츠 검색

AI

  • [혼자 공부하는 머신러닝+딮러닝] 트리 알고리즘 - 교차 검증과 그리드 서치

    2023.11.06 by 래모

  • [혼자 공부하는 머신러닝+딮러닝] 트리 알고리즘 - 결정 트리

    2023.11.03 by 래모

  • [혼자 공부하는 머신러닝+딮러닝] 다양한 분류 알고리즘 - 확률적 경사 하강법

    2023.10.29 by 래모

  • [혼자 공부하는 머신러닝+딮러닝] 다양한 분류 알고리즘 - 로지스틱 회귀

    2023.10.29 by 래모

  • [혼자 공부하는 머신러닝+딮러닝] 회귀 알고리즘과 모델 규제 - 특성 공학과 규제

    2023.10.29 by 래모

  • [혼자 공부하는 머신러닝+딮러닝] 회귀 알고리즘과 모델 규제 - 선형 회귀

    2023.10.28 by 래모

  • [혼자 공부하는 머신러닝+딮러닝] 회귀 알고리즘과 모델 규제 - k 최근접 이웃 회귀

    2023.10.28 by 래모

  • [딮러닝 튜토리얼] 섹션 1 - 3. Learning Algorithm 기초

    2023.10.10 by 래모

[혼자 공부하는 머신러닝+딮러닝] 트리 알고리즘 - 교차 검증과 그리드 서치

검증세트( validation set ) 테스트 세트를 사용하지 않으면 모델이 과대적합인지 과소적합인지 판단하기 어렵다. 테스트 세트를 사용하지 않고 이를 측정하는 방법은 훈련세트를 또 나누는 것이다! => 검증세트 훈련 : 검증 : 테스트 = 6 : 2 : 2 from sklearn.model_selection import train_test_split train_input, test_input, train_target, test_target = train_test_split(data, target, test_size = 0.2 , random_state = 42) sub_input, val_input, sub_target, val_target = train_test_split(train_input, ..

AI 2023. 11. 6. 09:57

[혼자 공부하는 머신러닝+딮러닝] 트리 알고리즘 - 결정 트리

로지스틱 회귀로 와인 분류하기 알코올, 도수, 당도, pH 값으로 와인의 종류를 구별해보자 와인은 레드와인과 화이트와인이 있다 import pandas as pd wine = pd.read_csv("https://bit.ly/wine_csv_data") wine.head() 네번째 열은 타깃값으로 레드와인이면 0, 화이트 와인이면 1이다 로지스틱 회귀로 훈련하기 전에 판다스의 유용한 메서드를 알아보자 info() wine.info() ''' RangeIndex: 6497 entries, 0 to 6496 Data columns (total 4 columns): # Column Non-Null Count Dtype --- ------ -------------- ----- 0 alcohol 6497 non-..

AI 2023. 11. 3. 02:14

[혼자 공부하는 머신러닝+딮러닝] 다양한 분류 알고리즘 - 확률적 경사 하강법

확률적 경사 하강법 (Stochastic Gradient Descent) 훈련한 모델을 버리지 않고 새로운 데이터에 대해서 조금씩 훈련하는 방식을 점진적 학습 또는 온라인 학습이라고 부른다. 대표적인 점진적 학습 알고리즘이 SGD이다. 확률적 경사 하강법에서 확률적이란 말은 '무작위하게' 혹은 '랜덤하게'의 기술적인 표현이다 그다음 경사는 기울기를 말하고 하강법은 내려가는 방법을 말한다. 전체 샘플을 사용하지 않고 딱 하나의 샘플을 훈련 세트에서 랜덤하게 골라 가장 가파른 길을 찾는 것이 바로 SGD이다. 더 자세히 설명하자면 SGD는 훈련 세트에서 랜덤하게 하나의 샘플을 선택하여 가파른 경사를 조금씩 내려간다. 그 다음 훈련 세트에서 랜덤하게 또 다른 샘플을 하나 선택하여 경사를 조금 내려간다 이런 식..

AI 2023. 10. 29. 20:14

[혼자 공부하는 머신러닝+딮러닝] 다양한 분류 알고리즘 - 로지스틱 회귀

로지스틱 회귀 로지스틱 회귀는 이름은 회귀이지만 분류 모델이다. 이 알고리즘은 선형 회귀와 동일하게 선형 방정식을 학습한다 ex ) z = a * Weight + b * Length + c * Diagonal + d * Height + e * Width + f 여기서 a, b, c, d는 가중치 혹은 계수이다 z는 어떤 값도 가능하지만 확률이 되려면 0~1의 값이어야 한다 z가 아주 큰 음수일 때 0이 되고 z가 아주 큰 양수 일때 1이 되도록 바꾸는 방법이 시그모이드함수(또는 로지스틱함수)이다. 사이킷런에는 로지스틱 회귀 모델인 LogisticRegression 클래스가 준비되어 있다.

AI 2023. 10. 29. 19:31

[혼자 공부하는 머신러닝+딮러닝] 회귀 알고리즘과 모델 규제 - 특성 공학과 규제

다중 회귀 여러 개의 특성을 사용한 선형 회귀를 다중 회귀 라고 부른다 특성이 2개면 타킷값과 함께 3차원 공간을 형성하고 선형 회귀 방정식 타깃 = a * 특성1 + b * 특성2 + 절편 은 평면이 된다 이번 에제에서는 농어의 길이뿐만 아니라 농어의 높이와 두께도 함께 사용한다 기존의 특성을 사용해 새로운 특성을 뽑아내는 작업을 특성공학 이라고 한다. 사이킷런의 변환기 사이킷런은 특성을 만들거나 전처리하기 위한 다양한 클래스를 제공한다 사이킷런에서는 이런 클래스를 변환기라고 부른다 사이킷런의 모델 클래스에 일관된 fit(), score(), predict() 메서드가 있는 것처럼 변환기 클래스는 모두 fit(), transform() 메서드를 제공한다. 이번에 사용해볼건 PolynomialFeatur..

AI 2023. 10. 29. 15:12

[혼자 공부하는 머신러닝+딮러닝] 회귀 알고리즘과 모델 규제 - 선형 회귀

k-최근접 이웃의 한계 농어 데이터를 다시 사용하고 50cm 농어의 무게를 예측해보자 이전까진 전 게시물과 똑같다 print(knr.predict([[50]])) # [1033.33333333] 농어의 무게를 1033g정도로 예측했다. 하지만 실제 이 농어의 무게는 훨씬 더 많이 나간다고 한다 어디서 문제가 생긴걸까? 최근접 이웃을 산점도로 표시해보자 import matplotlib.pyplot as plt distances, indexes = knr.kneighbors([[50]]) plt.scatter(train_input, train_target) plt.scatter(train_input[indexes], train_target[indexes], marker = "D") plt.scatter(50..

AI 2023. 10. 28. 19:31

[혼자 공부하는 머신러닝+딮러닝] 회귀 알고리즘과 모델 규제 - k 최근접 이웃 회귀

지도 학습 알고리즘은 크게 분류와 회귀로 나뉜다. 회귀란? : 임의의 어떤 숫자를 예측하는 문제 ex) 내년도 경제 성장률 예측, 배달 도착시간 예측, 농어의 무게를 예측 k-최근접 알고리즘이란? 예측하려는 샘플에 가장 가까운 샘플 k개를 선택한 후 이 샘플들의 클래스를 확인하여 다수 클래스를 새로운 샘플의 클래스로 예측한다. k-최근접 이웃 회귀도 이와 비슷!! 분류와 똑같이 예측하려는 샘플에 가장 가까운 샘플 k개를 선택 (회귀이기 때문에 이웃한 샘플의 타깃은 어떤 클래스가 아니라 임의의 수치) 이웃 샘플의 수치를 사용해 새로운 샘플x의 타깃을 예측함 => 수치들의 평균 구하기! KNeighborsRegressor 사이킷런에서 k-최근접 이웃 회귀 알고리즘을 구현한 클래스 객체를 생성하고 fit메서드..

AI 2023. 10. 28. 18:32

[딮러닝 튜토리얼] 섹션 1 - 3. Learning Algorithm 기초

Learning Algorithm 내가 원하는 어떤 일을 할 수 있도록 connection weight을 잘 설정해야하는데 그것이 바로 learning algorithm이라고 할 수 있다. x라는 training data를 줬을 때 t 값이 나오면 우리는 이것을 학습이 완료 되었다고 한다. 위의 수식이 최소가 되는 w값을 찾는것이 우리의 숙제이다. 위 수식을 그래프로 그리면 아래와 같이 표현되는데 E(w)가 최소가 되는 w값을 어떻게 찾느냐? 우리는 극소가 되는 w값을 찾지는 못 하지만 그 근사값에 해당하는 값들을 찾을 수 있다 어떻게? 미분을 통해서! Gradient Descent Method 한 점을 잡고 극 점의 미분값을 계산했을 때 음수면 양의방향(즉 오른쪽) 으로 옮기고 양수면 음의 방향(즉 왼..

AI 2023. 10. 10. 21:24

추가 정보

인기글

최신글

페이징

이전
1 2
다음
TISTORY
코딩이 모래? © Magazine Lab
페이스북 트위터 인스타그램 유투브 메일

티스토리툴바