데이터분석 3

17.활성화 함수

# 1. 비선형 활성화 함수(Activation Functions) * 신경망의 성능을 향상시키기 위해 사용 * 선형 함수는 입력값과 가중치를 곱한 결과를 그대로 출력하기 떄문에 신경망에서 여러개의 선형 활성화 함수를 사용한다면 최종 출력값은 입력값과 가중치의 선형조합으로 표현되므로 이는 입력 데이터의 비선형 관계를 표현할 수 없음 * 신경망이 입력 데이터의 비선형 관계를 잘 학습할 수 있도록 하기 위해서 비선형 호라성화 함수를 사용 import numpy as np import matplotlib.pyplot as plt ### 1-1. 시그모이드 def sigmoid(x): return 1/(1+np.exp(-x)) x = np.arange(-5.0, 5.0, 0.1) y = sigmoid(x) pl..

데이터분석 2023.06.16

14.파이토치로 구현한 논리 회귀

# 1. 단항 논리 회귀 실습 * 논리회귀 ( Logistic Regrssion) * 분류를 할 때 사용하고 선형 회귀 공식으로부터 나왔기 때문에 논리 회귀라는 이름이 붙여짐 > 직선 하나(선형 회귀) 를 사용해서 예측한다면 제대로 예측할 수 없음 > Sigoid 함수(Logistic 함수)를 사용하여 정확도를 높임 ### Sigmoid 함수 - 예측값을 0에서 1사이 값이 되도록 만듬 * 0에서 1사이의 연속된 값을 출력으로 하기 때문에 보통 0.5를 기준으로 구분 import torch import torch.nn as nn import torch.optim as optim import matplotlib.pyplot as plt torch.manual_seed(10) #난수 생성기를 초기화하고 시드..

데이터분석 2023.06.16