OGLEE's World
close
프로필 배경
프로필 로고

OGLEE's World

  • 분류 전체보기 (122)
    • 프로젝트 (4)
      • 강화학습 코인 트레이더 (4)
    • 인공지능 (71)
      • [책] 딥러닝- 강화학습 주식투자 (3)
      • [책] 밑바닥부터 시작하는 딥러닝1 (7)
      • [책] 밑바닥부터 시작하는 딥러닝2 (7)
      • [책] 밑바닥부터 시작하는 딥러닝4 (10)
      • [책] 밑바닥부터 시작하는 딥러닝5 (1)
      • [책] 강화학습 이론 & 실습 (5)
      • [책] 머신러닝-딥러닝에 필요한 기초 수학 (10)
      • [강의] 딥러닝, 머신러닝을 활용한 시계열 데이터 분석 (6)
      • [강의] 혁펜하임 딥러닝 강의 (10)
      • 교양 서적 (2)
      • 논문 (9)
    • 투자 (21)
      • 투자 관련 책 (19)
    • 인문학 (5)
    • 일상 (15)
      • 영화 (14)
      • 여행 (0)
      • 성장 일기 (0)
    • 영어 공부 (1)
      • 쉐도잉 (1)
      • 영단어 (0)
  • 태그
  • 방명록
Chapter 3. 인공신경망이란?

Chapter 3. 인공신경망이란?

인공 신경망, weight와 bias의 직관적 이해, 인공 신경망은 함수다!인공 신경인간의 신경을 흉내낸 것노드(혹은 unit)와 엣지(혹은 connection)로 이루어져있다.웨이트(중요도)를 곱하고 바이어스(민감도)와 함께 더하고, 액티베이션!여러가지 액티베이션이 존재. 여기서 본 건 unit step (계단) function주어진 입력(강아지면)에 대해 원하는 출력이 나오도록 웨이트, 바이어스를 정해줘야 한다.근데, AI가 스스로 적절한 웨이트, 바이어스를 알아내기 때문에 대박! how? Input layer & output layer (& hidden layer)깊은 인공 신경망? (DNN: Deep Neural Network)노드끼리 싹다 연결한 층은 FC (fully-connected) lay..

  • format_list_bulleted 인공지능/[강의] 혁펜하임 딥러닝 강의
  • · 2024. 11. 26.
  • textsms
Chapter 2. 왜 현재 AI가 가장 핫할까?

Chapter 2. 왜 현재 AI가 가장 핫할까?

(근데 강의 제목이랑 내용이 상관이 없네..)AI vs ML vs DL (Rule-based vs Data-based)인공지능이란AI(Artificial Inteligence): 인간의 지능을 인공적으로 만든 것!지능이란 지적 능력이다. 예를 들면 개와 고양이를 분류 하는 능력중요한건 How? 인간은 어떻게 개와 고양이를 분류하지?인간의 사고방식을 흉내내자! (이것이 딥러닝의 핵심)일반인에게 이런식으로 AI가 인간의 지능을 모방한 것이라고 설명하면 일반인들은 대부분 큰 오해를 할 수밖에 없다. 왜냐하면 지능이란 말이 너무나 추상적이기 때문에, 인공지능의 범위가 엄청 거대하다고 생각한다. 인공지능 vs 머신러닝 vs 딥러닝지도 학습비지도 학습 반대로, 정답을 모른다.군집화 (K-means, DBSCAN, ..

  • format_list_bulleted 인공지능/[강의] 혁펜하임 딥러닝 강의
  • · 2024. 11. 25.
  • textsms
[논문 리뷰] Gemma: Open Models Based on Gemini Research and Technology

[논문 리뷰] Gemma: Open Models Based on Gemini Research and Technology

Abstract구글에서 내놓은 2B, 7B의 상업이용 가능한 LLM (RL까지 함)Gemini에서 사용한 기술이 접목된 비교적 작은 규모의 오픈소스 LLM(그래서 이름이 Gemma)Pretrained, Fine-tuned 모델 둘다 공개18개 language understanding, reasoning, safety becnmarks 사용, 11개에서 sota6T token으로 학습, Gemini와 similar architecture, data, training recipe 사용ArchitectureTransformer Decoder 사용Context Length = 8KMulti-Query Attention: 7B uses Multi-Head Attention, 2B use multi-query at..

  • format_list_bulleted 인공지능/논문
  • · 2024. 11. 20.
  • textsms
[논문 리뷰] LLaMA Beyond English: An Empirical Study on Language Capability Transfer

[논문 리뷰] LLaMA Beyond English: An Empirical Study on Language Capability Transfer

저자Jun Zhao et. al. (후당대)2024. 1. 2.한 줄 요약영어 라마를 다른 언어로 transfer 시킬 때, 의외로 vocabulary 확장이 좋은 전략이 아닐 수도 있다.ProblemLLaMA English를 다른 언어로 Transfer 하는 효과적인 방법 실험Main Ideas크게 3가지 Factor로 연구 진행The impact of vocabulary extension on transfer.Training scales required for effective transfer.Teh effect of Transfer Training on the original English capabilities.Experimental SetupModelsLLaMA: English-dominate ..

  • format_list_bulleted 인공지능/논문
  • · 2024. 11. 20.
  • textsms
[논문 리뷰] Solving math word problems with process and outcome-based feedback

[논문 리뷰] Solving math word problems with process and outcome-based feedback

저자Guan Wang, et. al, (칭화대)2022. 11. 25한 줄 요약수학 문제로 RL을 할 때, 최종 정답과 풀이 과정 2가지 Supervision을 가지고 학습 할 때 각각 어떤 결과가 나오는지에 관한 experimental한 페이퍼ProblemLLM에게 Reasoning Steps를 생성하게 하면, 자연스럽게 여러 Task에서 Reasoning 능력이 향상되어 왔음.문제는 최종 아웃풋(정답) 위주로 가르칠지 아니면 Process 위주로 가르칠지 선택의 기로에 놓이게 됨.Process 위주로 하게 되면 채점에서 cost가 커짐본 연구에서는 outcom-based vs process-based reasoning step에 대한 효과에 대해서 연구Main IdeasGSM8K(수학문제)를 활용하여..

  • format_list_bulleted 인공지능/논문
  • · 2024. 11. 20.
  • textsms
[논문 리뷰] Chain-of-Thought Reasoning Without Prompting

[논문 리뷰] Chain-of-Thought Reasoning Without Prompting

AffiliationXuezhi Wang and Denny ZhouDeepmind2024. 2. 15요약LLM이 답변을 생성 할 때, 최초 생성할 토큰을 Top-1이 아니라 확률이 낮은 Top-K를 쓰면 CoT 현상이 일어나면서, Reasoning 능력이 좋아지더라ProblemLLM의 Reasoning 능력을 향상시키기 위해, 기존 연구에서는 Few-shot, Zero-shot Prompting을 사용했다.이는 효과적이긴 하지만, 일반적으로 Manual 한 방식이다(Best를 찾는게 어려움)Original CoT의 예시Main IdeasLLM에게 Explicit 하게 CoT를 학습시키지 않아도, LLM 안에는 Implicit 하게 CoT Path가 내재되어 있지 않을까? -> 그걸 끄집어내 보자!Gree..

  • format_list_bulleted 인공지능/논문
  • · 2024. 11. 20.
  • textsms
[논문 리뷰] Self-Rewarding Language Models

[논문 리뷰] Self-Rewarding Language Models

Authors (Affiliation)Yuan, 조경현 교수, Meta, NYU24.01요약Reward Model을 따로 두지 않고, LLM을 답변도 만들고 답변을 평가까지 같이 해본 결과.AI 피드백은 RLAIF 연구에서 이미 있었으나, 자기 스스로 답변하고 평가하고, 그 데이터로 다시 학습까지 하는 연구는 없었음중요한 점은 LLM을 Judge로 활용하기 위해 저자들이 사용한 프롬프트ProblemHuman Preference로 Reward Model을 학습하면 사실 Super Human Level에는 도달하기 어렵다.또한 Reward Model을 일단 학습하면 Agent를 학습할 때는 Frozen 형태로 사용하기 때문에 더 향상되지 못한다.DPO 방식은 일반적으로 Iterative 학습하지 않는다.Ma..

  • format_list_bulleted 인공지능/논문
  • · 2024. 11. 20.
  • textsms
Chapter1. 딥러닝을 위한 필수 기초 수학-2

Chapter1. 딥러닝을 위한 필수 기초 수학-2

16. 랜덤 변수와 확률 분포랜덤 변수는 함수다!The term 'random variable' in its mathematical definition refers to neither randomness nor variability but instead is a mathematical function 랜덤 변수(X)는 사건이 입력이고 특정 실수의 값을 출력해주는 함수사건 → X → 실수값동전의 앞면 → X → 1동전의 앞면 → X → 2그냥 one-hot encoding 하는 느낌인데? Mapping 함수 느낌랜덤 변수는 대문자로, 실수 값으로 변환되고 난 값은 소문자로 표현이 실수값을 확률로 변환해주는 것이 확률 함수사건 → X → 실수 값 → P → 확률동전이 앞면 → X → 1 → P(1) → 0...

  • format_list_bulleted 인공지능/[강의] 혁펜하임 딥러닝 강의
  • · 2024. 11. 17.
  • textsms
Chapter1. 딥러닝을 위한 필수 기초 수학-1

Chapter1. 딥러닝을 위한 필수 기초 수학-1

01. 함수와 다변수 함수함수란 무엇인가?어떤 집합의 각 원소를 다른 집합의 유일한 원소에 대응시키는 이항 관계.그럼 다음과 같은 경우는 함수가 아닌가?$$ z=f(x,y)= \begin{bmatrix} xy^2 \\ x+y \end{bmatrix} $$출력이 2개이지만 위 경우도 함수이다. 출력의 2개의 값을 하나의 벡터라고 본다면, 결국 유일한 원소에 대응시키는 이항관계로 볼 수 있기 때문이다(벡터 함수..?)그럼 원의 방정식(\(x^2+y^2=1\))은 함수인가?(링크)위 정의에 따르면 \(y^2=x\) 는 함수가 아니다. x에 대해서 대응되는 y가 두개이기 때문.근데 만약 아래처럼 표기하면, 위에서 출력의 2개의 값을 하나의 벡터로 본 경우하고 똑같아지는거 아닌가? 그럼 얘도 함수로 봐야하는데....

  • format_list_bulleted 인공지능/[강의] 혁펜하임 딥러닝 강의
  • · 2024. 11. 17.
  • textsms

AR, MA, ARMA, ARIMA 관련 기본 설명, 비트코인 예시 링크

https://dong-guri.tistory.com/9 시계열 분석, ARIMA model (Autoregressive Integrated Moving average Model)들어가기 앞서 . . - 석사 과정 중에 공부하던 시계열 분석에 대해 기억을 더듬으며 정리할 예정이다. 시계열 분석이라는 항목이 수학적으로 정리하기 어렵고, 방법론도 다양해서, 글로 모든 내dong-guri.tistory.com

  • format_list_bulleted 인공지능/[강의] 딥러닝, 머신러닝을 활용한 시계열 데이터 분석
  • · 2024. 11. 13.
  • textsms
[강의 요약] 패캠 시계열 분석 - Part5. 딥러닝을 이용하여 정교하게 예측하기

[강의 요약] 패캠 시계열 분석 - Part5. 딥러닝을 이용하여 정교하게 예측하기

Ch 2. 어서와, 인공신경망은 처음이지?인공신경망(뉴럴 네트워크) 개념 소개다층 퍼센트론(Multi-Layer Perceptron)입력층 하나와 은닉층(Hidden Layer)이라 불리는 하나 이상의 층과 출력층으로 구성출력층을 제외하고 모든 층은 편향 뉴런을 포함하여 다음층과 완전히 연결인공신경망의 은닉층이 2개 이상일 때 심층 신경망(DNN)이라 부른다역전파(Backpropagation)다층 퍼센트론을 효율적으로 학습시킬 수 있는 알고리즘각 훈련 샘플에 대해 역전파 알고리즘이 먼저 예측을 만들고(정방향), 오차를 측정하고, 그 다음 역방향으로 각 층을 거치면서 각 연결이 오차에 기여한 정도를 측정(역방향)이 오차가 감소하도록 가중치(weight)를 조금씩 조정 기본 구조(1): 입력층, 은닉층, 출..

  • format_list_bulleted 인공지능/[강의] 딥러닝, 머신러닝을 활용한 시계열 데이터 분석
  • · 2024. 11. 13.
  • textsms
[강의 요약] 패캠 시계열 분석 - Part4. 다변량 시계열

[강의 요약] 패캠 시계열 분석 - Part4. 다변량 시계열

Ch 2. 데이터 수집하기자본시장 시계열 소개1. 가격 시계열 vs 수익률 시계열scale-freestationary (금융시장에서는 거의 정상 시계열이 없다distributional advantages2. 수익률의 측정(t-1 ~ t 기간 동안의) (One-period) Simple Return(t-1 ~ t - k 기간 동안의) (Multiperiod) Simple ReturnOne-period Simple Return$$1+R_t=\frac{P_t}{P_{t-1}}$$$$P_t=P_{t-1}(1+R_t)$$Multiperiod Simple Return3. 연속복리 수익률(Continously Compounded Return)로그 수익률퍼센트 수익률 \(r_t = 100 * \ln (P_t / P_{..

  • format_list_bulleted 인공지능/[강의] 딥러닝, 머신러닝을 활용한 시계열 데이터 분석
  • · 2024. 11. 13.
  • textsms
[강의 요약] 패캠 시계열 분석 - Part3. 본격 시계열 분석하기

[강의 요약] 패캠 시계열 분석 - Part3. 본격 시계열 분석하기

Ch 2. 시계열 데이터의 속성계열(종단면) 데이터 vs 비시계열(횡단면) 데이터Time Series Data + Cross-sectional => Panel Data엄밀하게 말하면 시계열 데이터와 패널 데이터는 다르다시계열 데이터의 특징계절성(s)추세성(t)반복성(r)순환성(c)decompose (Part 1) => 가법모형, 승법모형자기상관성(Autocorrelation): 횡단면 데이터의 가정 (i.i.d.) = individually and independently distributed, 각 데이터 포인트는 각각 독립정상성(定常, stationarity)전통적으로 시계열 분석은 현재 시점까지 시계열 데이터의 확률적 특성이 시간이 지나도 그대로 유지 될 것을 가정하고 있다. 즉 시간과 관계 없이 평..

  • format_list_bulleted 인공지능/[강의] 딥러닝, 머신러닝을 활용한 시계열 데이터 분석
  • · 2024. 11. 13.
  • textsms
[강의 요약] 패캠 시계열 분석 - Part2. 머신러닝으로 데이터 실무 맛보기

[강의 요약] 패캠 시계열 분석 - Part2. 머신러닝으로 데이터 실무 맛보기

Ch 1. 학습목표기계학습(머신러닝) 주요 알고리즘의 이해머신러닝 교차검증의 이해머신러닝 주요 모델 구현 방법 습득예측 모델링에서의 주의사항 습득머신러닝 결과물을 전달하는 방법 습득Ch 2. 예측 모델링 시작하기지도학습(Supervised Learning): 정답(label)이 있는 훈련 데이터(training data)로부터 학습대부분의 머신러닝 방법예: Naive-Baysian Classifier, Random Forest Classifier비지도학습(Unsupervised Learning): 정답(label) 없이 훈련 데이터(training data)를 학습대부분의 거리 기반 알고리즘예: k-평균 군집화(k-Means Clustering), 주성분분석(Principal Component Analy..

  • format_list_bulleted 인공지능/[강의] 딥러닝, 머신러닝을 활용한 시계열 데이터 분석
  • · 2024. 11. 13.
  • textsms
[강의 요약] 패캠 시계열 분석 - Part1. 데이터 분석 첫 걸음 떼기

[강의 요약] 패캠 시계열 분석 - Part1. 데이터 분석 첫 걸음 떼기

Intro최근 다시 코인 열풍이 불면서, AI로 코인 가격 예측을 해보고 싶다는 생각이 들었다. 그래서 패캠에서 시계열 분석 강의를 찾아서 내돈내산으로 수강했다.내용 자체는 쉽고 기초적인 내용으로 광범위하게 구성되어 있어서 좋았으나, 실무에 적용할 만큼 유용한 정보라든가 강의 퀄러티가 높다거나 그러지는 않았다.. 결론적으로 비추한다..Ch2. 데이터 분석 소개데이터 분석의 범위기술통계(Descriptive Statistics)주어진 데이터의 분포나 빈도, 평균 등의 통계량을 통해서 데이터를 설명ex) 대한민국 성인 남성의 평균 키현상 설명 → 모집단(population) vs 표본(sample)추론통계(Inferential Statistics)모집단에서 추출된 표본으로 부터 모수와 관련된 통계량들의 값을..

  • format_list_bulleted 인공지능/[강의] 딥러닝, 머신러닝을 활용한 시계열 데이터 분석
  • · 2024. 11. 12.
  • textsms
[책 요약] 밑바닥부터 시작하는 딥러닝2-Chapter 8. 어텐션

[책 요약] 밑바닥부터 시작하는 딥러닝2-Chapter 8. 어텐션

Intro드디어 자연어처리의 발전의 급상승을 이루었던 Attention에 관한 설명어텐션의 구조seq2seq의 문제점기존 seq2seq에서는 Encoder쪽에서 모든 입력(여러 단어)을 단 하나의 고정 길이의 벡터 \(\textbf{h}\)로 변환하여 Decoder쪽으로 넘겼다.그러다보니 긴 문장의 경우 중요한 정보(특히 초반 정보)가 누락 될 가능성이 있었다.따라서 각 시점의 모든 정보를 각각의 \(\textbf{h}\)로 변환하여 Decoder쪽으로 보내는 개선을 고안하게 되었다.하지만 모든 정보를 넘기게 되면 정보의 과부하가 생길 수 있으므로, 거기서 중요한 정보만 집중 할 수 있는 기술이 Attention이다.Encoder의 개선기존의 하나의 벡터에 모든 입력 정보를 담아야만 했던 Encoder를..

  • format_list_bulleted 인공지능/[책] 밑바닥부터 시작하는 딥러닝2
  • · 2024. 11. 12.
  • textsms
[책 요약] 밑바닥부터 시작하는 딥러닝2-Chapter 7. RNN을 사용한 문장 생성

[책 요약] 밑바닥부터 시작하는 딥러닝2-Chapter 7. RNN을 사용한 문장 생성

Intro지금까지 설명한 RNN, LSTM으로 재밌는 애플리케이션인 ‘문장 생성’을 수행하는 방법을 배운다.또한 seq2seq라는 새로운 구조의 신경망도 소개한다. 이 seq2seq2는 기계 번역, 챗봇, 메일 자동 답신 등 다양하게 응용될 수 있다.언어 모델을 사용한 문장 생성RNN을 사용한 문장 생성의 순서언어 모델은 지금까지 주어진 단어들에서 다음에 출현할 단어의 확률 분포를 출력한다.출력된 확률 분포에서, 가장 확률이 높은 단어를 선택할 수 있다. 이것이 “deterministic(결정적)” 방법이다. 이 경우, 확률이 적은 단어는 절대 생성 될 수 없다.반면, 분포에서 Probabilistic(확률적) 으로 선택할 수 있다. 이 경우, 확률이 낮은 단어도 간혹 선택 될 수 있다.위 작업을 원하는..

  • format_list_bulleted 인공지능/[책] 밑바닥부터 시작하는 딥러닝2
  • · 2024. 11. 12.
  • textsms
[책 요약] 밑바닥부터 시작하는 딥러닝2-Chapter 6. LSTM(게이트가 추가된 RNN)

[책 요약] 밑바닥부터 시작하는 딥러닝2-Chapter 6. LSTM(게이트가 추가된 RNN)

Intro바닐라 RNN은 과거의 정보를 기억할 수 있었으나 성능이 조지 못하다. 그 이유는 시계열 데이터에서 시간적으로 멀리 떨어진, 장기(long term)의존 관계를 잘 학습할 수 없다는 데 있다(장문의 첫 단어와 끝단어의 관계를 이해하지 못함)따라서 LSTM이나 GRU 등의 계층이 등장했다. LSTM이나 GRU는 ‘게이트’라는 구조가 더해지는데, 이 게이트 덕분에 장기 의존 관계를 학습 할 수 있다.RNN의 문제점RNN은 시계열 데이터의 장기 의존 관계를 파악하기 어려운데, 그 이유는 기울기 소실 혹은 기울기 폭발(explosion) 때문이다.기울기 소실 또는 기울기 폭발RNN이 언어 모델로서 다음 문제를 풀어야 하는 경우를 생각해보자.Mary가 인사를 한 사람은 ‘Tom’이기 때문에 ‘Tom’이라..

  • format_list_bulleted 인공지능/[책] 밑바닥부터 시작하는 딥러닝2
  • · 2024. 11. 12.
  • textsms
[책 요약] 밑바닥부터 시작하는 딥러닝2-Chapter 5. 순환 신경망(RNN)

[책 요약] 밑바닥부터 시작하는 딥러닝2-Chapter 5. 순환 신경망(RNN)

Intro지금까지의 신경망은 Feed forward 유형의 신경망이었으나, 이러한 신경망은 시계열 데이터를 잘 다루지 못하는 단점이 있다.따라서 본 장에서는 시계열 데이터를 다루는데 특화된 RNN이라는 네트워크에 대해서 설명하고자 한다.확률과 언어 모델word2vec을 확률 관점에서 바라보다.word2vec의 경우, 좌우 단어(맥락)을 통해 단어를 유추했다.이를 확률로 표현하면 다음과 같다.$$P(w_t|w_{t-1}, w_{t+1})$$그런데 여기서 만약 왼쪽의 단어들만을 맥락으로 고려하면 어떻게 될까? $$P(w_t|w_{t-1}, w_{t-2})$$이것이 바로 언어 모델이다.바닐라 언어 모델은 왼쪽 문맥만을 고려하는 모델(left to right)이라고 봐야하고, 후에 나오는 BERT와 같은 Mas..

  • format_list_bulleted 인공지능/[책] 밑바닥부터 시작하는 딥러닝2
  • · 2024. 11. 11.
  • textsms
[책 요약] 밑바닥부터 시작하는 딥러닝2-Chapter 4. word2vec 속도 개선

[책 요약] 밑바닥부터 시작하는 딥러닝2-Chapter 4. word2vec 속도 개선

Intro앞장에서 구현한 CBOW는 말뭉치에 포함된 어휘 수가 많아지면 계산량이 너무 커지기 때문에 이번 장에서는 네거티브 샘플링이라는 새로운 손실함수 도입을 통해 속도를 개선하고자 한다.word2vec 개선 1전체 어휘수가 7개라면 신경 쓸 것이 없다. 그러나 오른쪽 그림처럼 어휘수가 100만개로 늘어나게 되면 수많은 계산 시간이 소요된다.병목이 생기는 구간입력층의 원핫 표현과 가중치 행렬 \(\textbf{W}_{\text{in}}\)의 곱 계산은닉층과 가중치 행렬 \(\textbf{W}_{\text{out}}\)의 곱 및 softmax의 계산Embedding 계층아래와 같이 단어를 원핫 벡터로 표현할 경우 입력층에서는 다음과 같은 계산을 하게 된다하지만 1 X 100만 짜리 행렬을 곱하는 것은 간단..

  • format_list_bulleted 인공지능/[책] 밑바닥부터 시작하는 딥러닝2
  • · 2024. 11. 11.
  • textsms
  • navigate_before
  • 1
  • 2
  • 3
  • 4
  • navigate_next
공지사항
전체 카테고리
  • 분류 전체보기 (122)
    • 프로젝트 (4)
      • 강화학습 코인 트레이더 (4)
    • 인공지능 (71)
      • [책] 딥러닝- 강화학습 주식투자 (3)
      • [책] 밑바닥부터 시작하는 딥러닝1 (7)
      • [책] 밑바닥부터 시작하는 딥러닝2 (7)
      • [책] 밑바닥부터 시작하는 딥러닝4 (10)
      • [책] 밑바닥부터 시작하는 딥러닝5 (1)
      • [책] 강화학습 이론 & 실습 (5)
      • [책] 머신러닝-딥러닝에 필요한 기초 수학 (10)
      • [강의] 딥러닝, 머신러닝을 활용한 시계열 데이터 분석 (6)
      • [강의] 혁펜하임 딥러닝 강의 (10)
      • 교양 서적 (2)
      • 논문 (9)
    • 투자 (21)
      • 투자 관련 책 (19)
    • 인문학 (5)
    • 일상 (15)
      • 영화 (14)
      • 여행 (0)
      • 성장 일기 (0)
    • 영어 공부 (1)
      • 쉐도잉 (1)
      • 영단어 (0)
최근 글
인기 글
최근 댓글
태그
  • #llm
  • #마르코프 속성
  • #딥러닝
  • #자본주의
  • #배당주
  • #cnn
  • #벨만 방정식
  • #rnn
  • #혁펜하임
  • #손잡이 달린 컵
전체 방문자
오늘
어제
전체
Copyright © 쭈미로운 생활 All rights reserved.
Designed by JJuum

티스토리툴바