우선 import pandas as pd를 해줍니다. 1. 0행이 데이터프레임의 열이름인 경우sep인 구분자를 " "로 봅니다. 이 구분자는 \t, | 등 다른 것이 될 수 있습니다. df = pd.read_csv("데이터의/경로/파일이름.txt", sep = " ")이 경우, 코드에는 작성돼있지 않지만, 기본적으로 read_csv 함수의 인자인 header가 0으로 설정되어 있습니다. 2. 열이름을 생성하고 싶은 경우df = pd.read_csv("경로/와/데이터/이름.txt", sep = "\t", names = ['name', 'age', 'height'], header = None)header인자를 None으로 주고, names를 설정하고 싶은 열이름의 리스트로 정의해줍니다. 3. 열이름 없이..
AI/기계학습
정말 여러 사이트를 뒤져보면서 cuda깔고 cudnn깔고 해도 안됐지만..한방에 가능한 유튜브 링크를 전달받아 해결했습니다!중간에 에러가 한 번 떴지만, 쉽게 해결 가능합니다. 유튜브 링크 :How to Install TensorFlow GPU on Windows 11 | GPU Setup on Windows | TensorFlow GPU Setup (youtube.com) 에러 :import tensorflow as tf 코드 실행시 발생 a module that was compiled using numpy 1.x cannot be run in numpy 2.0.0 as it may crash. to support both 1.x and 2.x versions of numpy, modules must..
파이썬 라이브러리python3 -m pip install Pillowfrom PIL import Imagefrom matplotlib.pyplot import imshowimg = Image.open("Lena.png")imshow(img)print(img.size, img.mode) ##(512, 512) RGBimshow(img.crop((200, 200, 400, 400)))## 좌측 상단의 좌표가 (200, 200), 우측 하단의 좌표가 (400, 400)으로 crop됨imshow(img.rotate(60))## img와 같은 크기 사진이 반시계 방향으로 60도 돌아가게 됨.imshow(img.rotate(60, expand = True))## 사진이 잘리지 않고, 반시계로 60도 돌아간 후 사진..
CNN : 대표적 "딥러닝" 모델, 이미지 분석에 최적화.근데 왜 CNN이 이미지 데이터를 잘 학습할까? 이미지 데이터가 뭐길래? 이미지 데이터사진/그림 등을 컴퓨터로 저장한 데이터. jpg, png 픽셀 기반으로 구성되었고, 각 픽셀은 색깔이나 밝기 정보를 가진다. 보통 RGB 채널(각 픽셀이 3가지 값을 가짐)이며, 각 채널이 8비트의 수로 이루어졌기에총 24비트이고, 따라서 2의 24승 개의 색을 표현할 수 있다.특별하게, 흑백 이미지의 경우, 채널이 하나이다. 이미지 처리 사례사물 인식 - 자율주행/안면인식/의료이미지 부위탐지이미지 캡셔닝 : 이미지 보고 문장 만드는 것이미지 합성 - 딥페이크화질 개선알파고 딥러닝 이전 이미지 처리 기법crop, rotate, resizeshearing(전단변환)..
선형회귀선형 모델 구현class LinearModel: def __init__(self): self.W = tf.Variable(initial_value = 1.5) self.b = tf.Variable(initial_value = 1.5) def __call__(self, X, Y): return tf.add(tf.multiply(X, self.W), self.b) 업뎃될 수 있는 변수 W(가중치), b(편향) 을 초기값 1.5로 설정X와 W를 곱하고 b를 더하여 선형모델을 만듦 MSE 계산 손실 함수def loss(y, pred): x = tf.reduce_mean(tf.square(y-pred)) return x 실제값과 예측값의 차를 제곱하여 평균을 구하여 ..
DATA 증가 & 딥러닝 모델 한계데이터 차원 증가, 구조 복잡 -> 기술력의 부족으로 한계 맞이 문제점 :학습 속도 문제데이터 개수가 폭발적으로 증가함에 따라 딥러닝 모델 학습시 소요되는 시간의 폭발적 증가.발생 원인 - 전체 데이터를 사용해서 손실 함수 계산하기에 계산량 폭발적이다. 해결 방법 - 부분 데이터만 활용해서 손실 함수를 계산하자! SGD.SGD란, 데이터 그룹인 mini-batch에 대해 손실함수 계산하는 것.GD에 비해 다소 부정확할 수는 있지만, 계산 속도가 훨씬 빠르다.mini-batch를 설정함에 따라 gradient 방향의 변화가 크다.SGD를 쓰려면 learning rate를 설정해야 하는데, 너무 크면 발산할 가능성이 있고, 너무 작으면 수렴하지 못할 가능성이 있다.이에 대해..
딥러닝2024.05.20 - [기계학습] - 머신러닝과 딥러닝의 차이앞 포스팅에서 말했듯, 딥러닝은 히든층이 3층 이상인 경우를 말한다. 보통 이런 딥러닝 모델이 학습할 때에는 Loss function을 최소화하기 위해 최적화 알고리즘을 적용시킨다.여기서 Loss function은 예측값과 실제값간의 오차값을 뜻하는 함수이다.Optimization은 그 Loss function을 최소화시키는 모델의 파라미터(인자)를 찾는 과정을 말한다. 이 Optimization 알고리즘 중 가장 기본적인 알고리즘은 Gradient Descent, 경사하강법이다.가중치가 W일 때 손실함수를 loss(W)라고 나타낸다면, 기울기는 이 손실함수를 미분한 것인데, 이를 이용하는 것이다.역전파(Backpropagation)를 ..
AND, OR gatedef AND_gate(x1, x2): x = np.array([x1, x2]) weight = np.array([0.5, 0.5]) bias = -0.6 y = np.matmul(x, weight)+bias return Step_Function(y) def OR_gate(x1, x2): x = np.array([x1, x2]) weight = np.array([0.5, 0.5]) bias = -0.1 y = np.matmul(x, weight)+bias return Step_Function(y) def Step_Function(y): x = 0 if y NAND, NOR gatedef AND_gate(x1, x2): x = np..