본문 바로가기

혼공

혼공머신 6차시 _ 딥러닝 시작 Ch.07-1 인공 신경망인공 신경망 - 생물학적 뉴런에서 영감을 받아 만든 머신러닝 알고리즘으로, 기존의 머신러닝 알고리즘으로 다루기 어려웠던 이미지, 음성, 텍스트 분야에서 뛰어난 성능을 발휘함 ( 인공 신경망 알고리즘 = 딥러닝 )텐서플로 - 구글이 만든 딥러닝 라이브러리로 매우 인기 높음 - CPU와 GPU를 사용해 인공 신경망 모델을 효율적으로 훈련하며 모델 구축과 서비스에 필요한 다양한 도구를 제공 - 텐서플로 2.0부터는 신경망 모델을 빠르게 구성할 수 있는 케라스를 핵심 API로 채택함 ( 케라스를 사용하면 간단한 모델에서 아주 복잡한 모델까지 손쉽게 만들 수 있다 )밀집층 - 가장 간단한 인공 신경망의 층이며( 인공 신경망에는 여러 종류의 층이 있다 ), 밀집층에서는 뉴런들이 모두 연결되.. 더보기
혼공머신 5차시 _ 비지도 학습 Ch.06-1 군집 알고리즘비지도 학습 - 머신러닝의 한 종류로 훈련 데이터에 타깃이 없음 ( 타깃이 없어서 외부의 도움 없이 스스로 유용한 무언가를 학습 ) - 대표적인 비지도 학습 작업 : 군집, 차원 축소 등히스토그램 - 구간별로 값이 발생한 빈도를 그래프로 표시한 것 ( x축 : 값의 구간(계급) / y축 : 발생 빈도(도수) )군집 - 비슷한 샘플끼리 하나의 그룹으로 모으는 대표적인 비지도 학습 작업 ( 클러스터 : 군집 알고리즘으로 모은 샘플 그룹 ) Ch.06-2 k-평균k-평균 알고리즘 - 처음에 랜덤하게 클러스터 중심을 선택하고 점차 가장 가까운 샘플링 중심으로 이동하는 알고리즘 - 방법무작위로 k개의 클러스터 중심을 정한다.각 샘플에서 가장 가까운 클러스터 중심을 찾아 해당 클러스터의 .. 더보기
혼공머신 4차시 _ 트리 알고리즘 Ch.05-1 결정 트리결정 트리 - 예 / 아니오에 대한 질문을 이어나가면서 정답을 찾아 학습하는 알고리즘 - 비교적 예측 과정을 이해하기 쉽고 성능 뛰어남불순도 - 결정 트리가 최적의 질문을 찾기 위한 기준 ( 사이킷런 : 지니 불순도와 엔트로피 불순도 제공 )정보 이득 - 부모 노드와 자식 노드의 불순도 차이 ( 결정 트리 알고리즘 : 정보이득 최대화되도록 학습 )가지치기 - 결정 트리( 제한 없이 성장하면 훈련 세트에 과대적합되기 쉬움 )의 성장을 제한하는 방법 ( 사이킷런의 결정 트리 알고리즘 : 여러 가지 가지치기 매개변수를 제공 )특성 중요도 - 결정 트리에 사용된 특성이 불순도를 감소하는데 기여한 정도를 나타내는 값 ( 결정트리 : 특성 중요도 계산 가능 ) Ch.05-2 교차 검증과 그리.. 더보기
혼공머신 3차시 _ 다양한 분류 알고리즘 Ch.04-1 로지스틱 회귀로지스틱 회귀 - 선형 방정식을 사용한 분류 알고리즘 - 선형 회귀와 달리 시그모이드나 소프트맥스 함수를 사용하여 클래스 확률 출력 가능다중 분류 - 타깃 클래스가 2개 이상인 분류 문제 ( 로지스틱 회귀 : 다중 분류 위해 소프트맥스 함수 사용해 클래스 예측 )시그모이드 함수 - 선형 방정식의 출력을 0과 1 사이의 값으로 압축해 이진 분류를 위해 사용소프트맥스 함수 - 다중 분류에서 여러 선형 방정식의 출력 결과를 정규화하여 합이 1이 되도록 함 Ch.04-2확률적 경사 하강법 - 훈련 세트에서 샘플 하나씩 꺼내 손실 함수의 경사를 따라 최적의 모델을 찾는 알고리즘 - 미니배치 경사 하강법 : 샘플을 하나씩 사용하지 않고 여러 개를 사용 - 배치 경사 하강법 : 한 번에 전.. 더보기
혼공머신 2차시 _ 회귀 알고리즘과 모델 규제 Ch.03-1 k-최근접 이웃 회귀회귀 - 임의의 수치를 예측하는 문제 ( + 타깃값 : 임의의 수치 )k-최근접 이웃 회귀 - k-최근접 이웃 알고리즘을 사용해 회귀 문제를 푸는 것 - 가장 가까운 이웃 샘플을 찾고 이 샘플들의 타깃값을 평균하여 예측결정계수 (R²) - 대표적인 회구 문제의 성능 측정 도구 ( 1에 가까울수록 좋고, 0에 가까우면 성능이 나쁜 모델 )과대적합 - 모델의 훈련 세트 성능이 테스트 세트 성능보다 훨씬 높을 때 발생 ( 모델이 훈련 세트에 너무 집착해서 데이터에 내재된 거시적인 패턴 감지 못함 )과소적합 - 모델의 훈련 세트 성능과 테스트 세트 성능이 모두 동일하게 낮거나 테스트 세트 성능이 오히려 더 높을 때 발생 ( -> 더 복잡한 모델을 사용해 훈련 세트에 잘 맞는 모.. 더보기
혼공머신 1차시 _ 데이터 다루기 Ch.01-1 인공지능과 머신러닝, 딥러닝인공지능 - 사람처럼 학습하고 추론할 수 있는 지능을 가진 시스템을 만드는 기술 ( 강인공지능 / 약인공지능 )머신러닝 - 규칙을 프로그래밍하지 않아도 자동으로 데이터에서 규칙을 학습하는 알고리즘을 연구하는 분야 ( 대표적인 라이브러리 : 사이킷런 )딥러닝 - 인공 신경망 ( 대표적인 라이브러리 : 텐서플로, 파이토치 ) Ch.01-2 코랩과 주피터 노트북코랩 - 구글 계정이 있으면 누구나 사용할 수 있는 웹 브라우저 기반의 파이썬 코드 실행 환경노트북 - 코랩의 프로그램 작성 단위 - 일반 프로그램 파일과 달리 대화식으로 프로그램을 만들 수 있어 데이터 분석이나 교육에 적합 - 코드, 코드의 실행 결과, 문서를 모두 저장하여 보관 가능구글 드라이브 - 구글이 제.. 더보기
혼공파 6차시 더보기 기본미션 p.431 [직접 해보는 손코딩:Beautiful Soup 스크레이핑 실시하기] 예제 실행 후 결과 화면 캡처하기 Beautiful Soup 스크레이핑 실시하기. 더보기
혼공파 5차시 더보기 기본미션 구문 오류와 예외의 차이 설명하기(p.379 1번 문제) 구문 오류(Syntax Error) - 프로그램 실행 전에 발생하는 오류 - 괄호의 개수, 들여쓰기 문제 등으로 프로그램이 실행되기도 전에 발생하는 오류 예외(Exception) - 프로그램 샐행 중에 발생하는 오류 (런타임 오류/runtime error) - 프로그램이 일단 샐행된 다음, 실행 중에 발생하는 오류 선택미션 p.381 3번 문제 풀고 인증하기 문제 3. 다음 중 구문 오류 발생이 예상되면 '구문 오류'에, 예외 발생이 예상되면 '예외'에 체크 표시를 한 후, 예상되는 에러명도 적어 보세요. output = 10 + "개" # 1 int("안녕하세요") # 2 cursor.close) # 3 [1, 2, 3, 4, 5.. 더보기