OGLEE's World
close
프로필 배경
프로필 로고

OGLEE's World

  • 분류 전체보기 (115)
    • 프로젝트 (3)
      • 강화학습 코인 트레이더 (3)
    • 인공지능 (70)
      • [책] 딥러닝- 강화학습 주식투자 (3)
      • [책] 밑바닥부터 시작하는 딥러닝1 (7)
      • [책] 밑바닥부터 시작하는 딥러닝2 (7)
      • [책] 밑바닥부터 시작하는 딥러닝4 (10)
      • [책] 강화학습 이론 & 실습 (5)
      • [책] 머신러닝-딥러닝에 필요한 기초 수학 (10)
      • [강의] 딥러닝, 머신러닝을 활용한 시계열 데이터 분석 (6)
      • [강의] 혁펜하임 딥러닝 강의 (10)
      • 교양 서적 (2)
      • 논문 (9)
    • 투자 (21)
      • 투자 관련 책 (19)
    • 인문학 (5)
    • 일상 (10)
      • 영화 (10)
      • 여행 (0)
      • 성장 일기 (0)
    • 영어 공부 (1)
      • 쉐도잉 (1)
      • 영단어 (0)
  • 태그
  • 방명록
[책 요약] 밑바닥부터 시작하는 딥러닝2-Chapter 4. word2vec 속도 개선

[책 요약] 밑바닥부터 시작하는 딥러닝2-Chapter 4. word2vec 속도 개선

Intro앞장에서 구현한 CBOW는 말뭉치에 포함된 어휘 수가 많아지면 계산량이 너무 커지기 때문에 이번 장에서는 네거티브 샘플링이라는 새로운 손실함수 도입을 통해 속도를 개선하고자 한다.word2vec 개선 1전체 어휘수가 7개라면 신경 쓸 것이 없다. 그러나 오른쪽 그림처럼 어휘수가 100만개로 늘어나게 되면 수많은 계산 시간이 소요된다.병목이 생기는 구간입력층의 원핫 표현과 가중치 행렬 \(\textbf{W}_{\text{in}}\)의 곱 계산은닉층과 가중치 행렬 \(\textbf{W}_{\text{out}}\)의 곱 및 softmax의 계산Embedding 계층아래와 같이 단어를 원핫 벡터로 표현할 경우 입력층에서는 다음과 같은 계산을 하게 된다하지만 1 X 100만 짜리 행렬을 곱하는 것은 간단..

  • format_list_bulleted 인공지능/[책] 밑바닥부터 시작하는 딥러닝2
  • · 2024. 11. 11.
  • textsms
  • navigate_before
  • 1
  • navigate_next
공지사항
전체 카테고리
  • 분류 전체보기 (115)
    • 프로젝트 (3)
      • 강화학습 코인 트레이더 (3)
    • 인공지능 (70)
      • [책] 딥러닝- 강화학습 주식투자 (3)
      • [책] 밑바닥부터 시작하는 딥러닝1 (7)
      • [책] 밑바닥부터 시작하는 딥러닝2 (7)
      • [책] 밑바닥부터 시작하는 딥러닝4 (10)
      • [책] 강화학습 이론 & 실습 (5)
      • [책] 머신러닝-딥러닝에 필요한 기초 수학 (10)
      • [강의] 딥러닝, 머신러닝을 활용한 시계열 데이터 분석 (6)
      • [강의] 혁펜하임 딥러닝 강의 (10)
      • 교양 서적 (2)
      • 논문 (9)
    • 투자 (21)
      • 투자 관련 책 (19)
    • 인문학 (5)
    • 일상 (10)
      • 영화 (10)
      • 여행 (0)
      • 성장 일기 (0)
    • 영어 공부 (1)
      • 쉐도잉 (1)
      • 영단어 (0)
최근 글
인기 글
최근 댓글
태그
  • #마르코프 속성
  • #자본주의
  • #딥러닝
  • #혁펜하임
  • #벨만 방정식
  • #cnn
  • #배당주
  • #rnn
  • #llm
  • #손잡이 달린 컵
전체 방문자
오늘
어제
전체
Copyright © 쭈미로운 생활 All rights reserved.
Designed by JJuum

티스토리툴바