인공지능20 텐서플로우 임포트 에러 해결 1234567891011121314151617181920212223242526272829303132333435363738394041424344454647Traceback (most recent call last): File "/usr/local/lib/python3.6/site-packages/tensorflow/python/pywrap_tensorflow.py", line 41, in from tensorflow.python.pywrap_tensorflow_internal import * File "/usr/local/lib/python3.6/site-packages/tensorflow/python/pywrap_tensorflow_internal.py", line 28, in _pywrap_tensor.. 인공지능/머신 러닝 2018. 10. 1. [빅데이터 직무연구회] 8회차 모임 정리 [빅데이터 직무연구회] 8회차 모임 정리모임 요일 : 6월 25일 월요일 오후 4시 2장, 3장, 5장 복습 2.3.7 SVM (P. 125 ~ P. 137)SVM은 데이터를 여러 그룹으로 분류하는 데에 쓰일 수 있다. (P.129 3차원)학습방법 : 클래스 사이의 경계에 위치한 데이터 포인트 (서포트 벡터) 와의 거리를 계산해 새로운 데이터 포인트 클래스를 예측 (P. 131)매개변수 C와 gamma의 역할 (그림 2-42)데이터 전처리 (= 표준화) 3.3 데이터 전처리와 스케일 조정 (P.169 ~ P.178)3.3.2 데이터 변환 적용하기전처리 MinMaxScaler훈련세트와 테스트세트로 나누기(In[4])객체생성(In[5])fit 메서드로 훈련 데이터 적용(In[6]) - 최솟값과 최댓값 계산t.. 인공지능 2018. 6. 26. [빅데이터 직무연구회] 7회차 모임 정리 - 소스 %load_ext watermark %watermark -v -p sklearn,numpy,scipy,matplotlib CPython 3.5.4 IPython 6.1.0 sklearn 0.19.1 numpy 1.13.3 scipy 1.0.0 matplotlib 2.1.0 In [2]:%matplotlib inline from preamble import * 텍스트 데이터 다루기문자열 데이터 타입예제 어플리케이션: 영화 리뷰 감성 분석In [3]:# !은 셸(shell) 명령을 실행해주는 IPython의 매직 명령어입니다. # tree 명령이 없다면 find ./data -type d 명령을 사용해 하위 폴더의 목록을 # 볼 수 있습니다. # !tree -dL 2 data/aclImdb !find ./d.. 인공지능 2018. 6. 26. [빅데이터 직무연구회] 7회차 모임 정리 [빅데이터 직무연구회] 7회차 모임 정리모임 요일 : 5월 31일 목요일 저녁 6시 Chapter 7. 텍스트 데이터 다루기 텍스트 데이터는 주로 글자가 연결된 문자열로 표현된다. 텍스트 데이터의 길이는 서로 같은 경우는 거의 없다. 이런 특성은 이제까지 본 수치형 특성과 매우 다르므로 머신러닝 알고리즘에 적용하기 전에 전처리를 해야 한다. 7.1 문자열 데이터 타입문자열 데이터는 네 종류가 있다범주형 데이터빨강, 녹색, 파랑, 노랑, 검정, 흰색, 자주, 분홍 중 하나를 선택범주에 의미를 연결시킬 수 있는 임의의 문자열철차를 틀리거나, 회색이나 쥐색처럼 다르게 쓸 수 있다. 이런 데이터를 범주형 변수로 인코딩하려면 가장 보편적인 값을 선택하든지, 애플리케이션에 맞게 이런 응답을 포용할 수 있는 범주를 .. 인공지능 2018. 6. 26. [빅데이터 직무연구회] 6회차 모임 정리 (2) [빅데이터 직무연구회] 6회차 모임 정리 (2)모임 요일 : 5월 24일 목요일 저녁 6시 Chapter 5. 모델 평가와 성능 향상 모델 평가와 매개변수 선택에 대해 더 자세히 배우는 파트다. 두 가지 관점에서 평가 방법을 확장한다. 먼저 안정적인 일반화 성능 측정 방법인 교차 검증이다. 그 다음 score 메서드가 제공하는 정확도와 R^2 값 이외에 분류와 회귀 성능을 측정하는 다른 방법이다. 또한 가장 좋은 일반화 성능을 얻기 위해서 지도 학습 모델의 매개변수를 조정하는 데 유용한 그리드 서치도 있다. 5.1 교차 검증교차 검증(cross-validation)은 일반화 성능을 재기 위해 훈련 세트와 테스트 세트로 한 번 나누는 것 보다 더 안정적이고 뛰어난 통계적 평가 방법이다. 데이터를 여러 번 .. 인공지능 2018. 6. 6. [빅데이터 직무연구회] 6회차 모임 정리 (1) [빅데이터 직무연구회] 6회차 모임 정리 (1)모임 요일 : 5월 24일 목요일 저녁 6시 Chapter 4. 데이터 표현과 특성 공학 일반적인 특성의 전형적인 형태 = 범주형 특성(categorical feature) 또는 이산형 특성(discrete feature) 특성 공학(feature engineering) : 특정 애플리케이션에 가장 적합한 데이터 표현을 찾는 것 성능에 더 도움되는 행동 : 올바른 데이터 표현 >> 지도 학습 모델에서 적절한 매개변수를 선택하는 것 4.1 범주형 변수4.1.1 원-핫-인코딩(가변수)범주형 변수를 표현하는 데 가장 널리 쓰이는 방법. 원-아웃-오브-엔 인코딩(one-out-of-N encoding) 혹은 가변수(dummy variable) 이라고도 함. 가변수 .. 인공지능 2018. 6. 6. [빅데이터 직무연구회] 5회차 모임 예제 소스 (3) from sklearn.cluster import DBSCAN X, y = make_blobs(random_state=0, n_samples=12) dbscan = DBSCAN() clusters = dbscan.fit_predict(X) print("클러스터 레이블:\n{}".format(clusters)) 클러스터 레이블: [-1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1] In [62]:mglearn.plots.plot_dbscan() min_samples: 2 eps: 1.000000 cluster: [-1 0 0 -1 0 -1 1 1 0 1 -1 -1] min_samples: 2 eps: 1.500000 cluster: [0 1 1 1 1 0 2 2 1 2 2 0] min_sam.. 인공지능 2018. 5. 19. [빅데이터 직무연구회] 5회차 모임 예제 소스 (2) mglearn.plots.plot_kmeans_algorithm() In [45]:mglearn.plots.plot_kmeans_boundaries() In [46]:from sklearn.datasets import make_blobs from sklearn.cluster import KMeans X, y = make_blobs(random_state=1) kmeans = KMeans(n_clusters=3) kmeans.fit(X) Out[46]:KMeans(algorithm='auto', copy_x=True, init='k-means++', max_iter=300, n_clusters=3, n_init=10, n_jobs=1, precompute_distances='auto', random_sta.. 인공지능 2018. 5. 19. [빅데이터 직무연구회] 5회차 모임 예제 소스 (1) from IPython.display import display import numpy as np import matplotlib.pyplot as plt import pandas as pd import mglearn # 폰트 관련 자료 # https://programmers.co.kr/learn/courses/21/lessons/950 import matplotlib matplotlib.rc("font", family="NanumGothicCoding") In [2]:mglearn.plots.plot_scaling() In [3]:from sklearn.datasets import load_breast_cancer from sklearn.model_selection import train_test_sp.. 인공지능 2018. 5. 19. [빅데이터 직무연구회] 5회차 모임 정리 [빅데이터 직무연구회] 5회차 모임 정리모임 요일 : 5월 17일 목요일 저녁 6시Chapter 3. 비지도 학습과 데이터 전처리비지도 학습 : 알고 있는 출력값이나 정보 없이 학습 알고리즘을 가르쳐야 하는 모든 종류의 머신러닝3.1 비지도 학습의 종류이번 장에서 배울 것비지도 변환(unsupervised transformation)군집(clustering)비지도 변환 : 데이터를 새롭게 표현하여 사람이나 다른 머신러닝 알고리즘이 원래 데이터보다 쉽게 해석할 수 있도록 만드는 알고리즘. 데이터를 구성하는 단위나 성분을 찾기도 한다.비지도 변환 예 : 차원 축소 차원 축소(dimensionality reduction) : 특성이 많은 고차원 데이터를 특성의 수를 줄이면서 꼭 필요한 특징을 포함한 데이터로 .. 인공지능 2018. 5. 19. [빅데이터 직무연구회] 4회차 모임 정리 [빅데이터 직무연구회] 4회차 모임 정리모임 요일 : 5월 10일 목요일 저녁 6시 2.3.7 커널 서포트 벡터 머신 (SVM)"분류용 선형 모델"에서 선형 서포트 벡터 머신을 사용해 봤다. 커널 서포트 벡터 머신은 입력 데이터에서 단순한 초평면(hyperplane)으로 정의되지 않느 더 복잡한 모델을 만들 수 있도록 확장한 것이다.분류와 회귀 모두 사용할 수 있다. 분류 문제만을 다뤄보겠다. 선형 모델과 비선형 특성직선과 초평면은 유연하지 못하다. 따라서 저차원 데이터셋에서 선형 모델이 매우 제한적이다.선형 모델을 유연하게 만드는 방법은 다음과 같다.특성끼리 곱함특성을 거듭제곱함위 같은 방법으로 새로운 특성을 추가하는 것이다.커널 기법비선형 특성을 추가해 선형 모델을 강력하게 만듦. 특성이 많은 경우 .. 인공지능 2018. 5. 18. [모두의 딥러닝] 06. 퍼셉트론 인공 신경망(Artificial Neural Network) : 여러 층의 퍼셉트론을 서로 연결 시킴. 복잡하게 조합하여 주어진 입력 값에 대한 판단을 하게 함. 신경망을 이루는 가장 기본 단위는 퍼셉트론(perceptron)이다. 입력 값과 활성화 함수를 사용해 출력 값을 다음으로 넘기는 가장 작은 신경만 단위다. 1. 가중치, 가중합, 바이어스, 활성화 함수 a : 기울기, b 절편w : 가중치, b : 바이어스 가중합 : 입력 값(x)과 가중치(w)의 곱을 모두 더한 다음 거기에 바이어스(b)를 더한 값활성화 함수 : 가중합의 결과를 놓고 1 또는 0을 판단하는 함수 2. 퍼셉트론의 과제하나의 퍼셉트론으로 풀 수 없는 문제들이 있다. 2차원 평면 안에 1 00 1 의 데이터가 있다. 이 경우 선을 .. 인공지능/딥 러닝 2018. 5. 6. 이전 1 2 다음