OGLEE's World
close
프로필 배경
프로필 로고

OGLEE's World

  • 분류 전체보기 (115)
    • 프로젝트 (3)
      • 강화학습 코인 트레이더 (3)
    • 인공지능 (70)
      • [책] 딥러닝- 강화학습 주식투자 (3)
      • [책] 밑바닥부터 시작하는 딥러닝1 (7)
      • [책] 밑바닥부터 시작하는 딥러닝2 (7)
      • [책] 밑바닥부터 시작하는 딥러닝4 (10)
      • [책] 강화학습 이론 & 실습 (5)
      • [책] 머신러닝-딥러닝에 필요한 기초 수학 (10)
      • [강의] 딥러닝, 머신러닝을 활용한 시계열 데이터 분석 (6)
      • [강의] 혁펜하임 딥러닝 강의 (10)
      • 교양 서적 (2)
      • 논문 (9)
    • 투자 (21)
      • 투자 관련 책 (19)
    • 인문학 (5)
    • 일상 (10)
      • 영화 (10)
      • 여행 (0)
      • 성장 일기 (0)
    • 영어 공부 (1)
      • 쉐도잉 (1)
      • 영단어 (0)
  • 태그
  • 방명록
[논문 요약] Constitutional Classifier

[논문 요약] Constitutional Classifier

https://www.anthropic.com/news/constitutional-classifiers(google notebook-lm으로 작성)핵심 요약대규모 언어 모델(LLM)은 모델 안전 장치를 우회하여 유해한 정보를 추출할 수 있는 유니버설 jailbreak 공격에 취약합니다. 이러한 공격에 대응하기 위해 본 연구에서는 헌법 분류기(Constitutional Classifiers)라는 새로운 보호 방법을 제시합니다헌법 분류기는 허용 및 제한된 콘텐츠를 명시하는 자연어 규칙(헌법)을 사용하여 LLM이 생성한 합성 데이터를 기반으로 훈련됩니다. 이러한 헌법은 새로운 위협 모델에 맞춰 유연하게 업데이트할 수 있으며, 방대한 양의 훈련 데이터를 생성할 수 있도록 합니다.본 연구에서는 입력 전용 분류기와..

  • format_list_bulleted 인공지능/논문
  • · 2025. 4. 3.
  • textsms
[논문 요약] DeepSeek-R1

[논문 요약] DeepSeek-R1

엔비디아 주가를 20%나 폭락시킨 중국 DeepSeek-R1 모델을 파헤쳐보고자 한다.DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning Abstract이 논문에서는 DeepSeek(중국 스타트업)의 첫 번째 reasoning model인 DeepSeek-R1-Zero와 DeepSeek-R1을 공개한다. 이 말에서부터 Reasoning이 아닌 다른 타입의 model은 이미 공개 된 상태란 것을 알 수 있다. 특히 R1-Zero는 지도 학습 없이 순수한 강화학습으로만 학습 되었음을 강조하고 있다(ChatGPT류의 시작인 InstructGPT, LLaMa 등은 대부분 지도 학습 이후 강화학습을 이어서 진행하는 방..

  • format_list_bulleted 인공지능/논문
  • · 2025. 2. 13.
  • textsms
[논문 요약] Demystifying embedding spaces using large language models

[논문 요약] Demystifying embedding spaces using large language models

* 본 논문 요약은 Notebook LM을 활용하였습니다.전체 요약이 논문은 임베딩 공간을 이해하기 위해 대규모 언어 모델(LLM)을 활용하는 새로운 프레임워크인 ELM(Embedding Language Model)을 제안합니다. ELM은 도메인 임베딩을 LLM에 통합하여 추상적인 벡터를 사람이 이해할 수 있는 설명으로 변환합니다. 이 모델은 어댑터 레이어를 통해 도메인 임베딩 벡터를 LLM의 토큰 임베딩 공간으로 매핑하여 임베딩 데이터에 대한 쿼리 및 탐색을 가능하게 합니다. ELM은 영화 추천 시스템에서 개념 활성화 벡터 개선, 새로운 임베딩 엔티티 설명, 사용자 선호도 해석과 같은 다양한 작업에서 그 유용성을 입증합니다. 실험 결과는 ELM이 테스트 데이터에서 잘 일반화되고, 인간 평가와도 일치하며..

  • format_list_bulleted 인공지능/논문
  • · 2025. 2. 10.
  • textsms
[논문 요약] COCONUT: Training Large Language Models to Reason in a Continuous Latent Space

[논문 요약] COCONUT: Training Large Language Models to Reason in a Continuous Latent Space

저자Shibo Hao et al, FAIR at Meta 요약(NotebookLM)본 논문은 LLM의 추론 능력 향상을 위한 새로운 방법인 "Coconut(Chain of Continuous Thought)"을 제시합니다. 기존의 Chain-of-Thought(CoT) 방식이 언어 공간에서 추론 과정을 단계별로 생성하는 것과 달리, Coconut은 LLM의 Hidden States를 연속적인 사고(continuous thought)로 활용하여, 언어 제약 없이 추론을 수행합니다. 여러 추론 과제에 대한 실험 결과, Coconut은 특히 계획과 탐색이 필요한 복잡한 추론 과제에서 CoT보다 우수한 성능을 보이며, 추론 토큰 수도 감소시키는 것으로 나타났습니다. 이 연구는 잠재 추론(latent reason..

  • format_list_bulleted 인공지능/논문
  • · 2025. 2. 3.
  • textsms
[논문 리뷰] Gemma: Open Models Based on Gemini Research and Technology

[논문 리뷰] Gemma: Open Models Based on Gemini Research and Technology

Abstract구글에서 내놓은 2B, 7B의 상업이용 가능한 LLM (RL까지 함)Gemini에서 사용한 기술이 접목된 비교적 작은 규모의 오픈소스 LLM(그래서 이름이 Gemma)Pretrained, Fine-tuned 모델 둘다 공개18개 language understanding, reasoning, safety becnmarks 사용, 11개에서 sota6T token으로 학습, Gemini와 similar architecture, data, training recipe 사용ArchitectureTransformer Decoder 사용Context Length = 8KMulti-Query Attention: 7B uses Multi-Head Attention, 2B use multi-query at..

  • format_list_bulleted 인공지능/논문
  • · 2024. 11. 20.
  • textsms
[논문 리뷰] LLaMA Beyond English: An Empirical Study on Language Capability Transfer

[논문 리뷰] LLaMA Beyond English: An Empirical Study on Language Capability Transfer

저자Jun Zhao et. al. (후당대)2024. 1. 2.한 줄 요약영어 라마를 다른 언어로 transfer 시킬 때, 의외로 vocabulary 확장이 좋은 전략이 아닐 수도 있다.ProblemLLaMA English를 다른 언어로 Transfer 하는 효과적인 방법 실험Main Ideas크게 3가지 Factor로 연구 진행The impact of vocabulary extension on transfer.Training scales required for effective transfer.Teh effect of Transfer Training on the original English capabilities.Experimental SetupModelsLLaMA: English-dominate ..

  • format_list_bulleted 인공지능/논문
  • · 2024. 11. 20.
  • textsms
[논문 리뷰] Solving math word problems with process and outcome-based feedback

[논문 리뷰] Solving math word problems with process and outcome-based feedback

저자Guan Wang, et. al, (칭화대)2022. 11. 25한 줄 요약수학 문제로 RL을 할 때, 최종 정답과 풀이 과정 2가지 Supervision을 가지고 학습 할 때 각각 어떤 결과가 나오는지에 관한 experimental한 페이퍼ProblemLLM에게 Reasoning Steps를 생성하게 하면, 자연스럽게 여러 Task에서 Reasoning 능력이 향상되어 왔음.문제는 최종 아웃풋(정답) 위주로 가르칠지 아니면 Process 위주로 가르칠지 선택의 기로에 놓이게 됨.Process 위주로 하게 되면 채점에서 cost가 커짐본 연구에서는 outcom-based vs process-based reasoning step에 대한 효과에 대해서 연구Main IdeasGSM8K(수학문제)를 활용하여..

  • format_list_bulleted 인공지능/논문
  • · 2024. 11. 20.
  • textsms
[논문 리뷰] Chain-of-Thought Reasoning Without Prompting

[논문 리뷰] Chain-of-Thought Reasoning Without Prompting

AffiliationXuezhi Wang and Denny ZhouDeepmind2024. 2. 15요약LLM이 답변을 생성 할 때, 최초 생성할 토큰을 Top-1이 아니라 확률이 낮은 Top-K를 쓰면 CoT 현상이 일어나면서, Reasoning 능력이 좋아지더라ProblemLLM의 Reasoning 능력을 향상시키기 위해, 기존 연구에서는 Few-shot, Zero-shot Prompting을 사용했다.이는 효과적이긴 하지만, 일반적으로 Manual 한 방식이다(Best를 찾는게 어려움)Original CoT의 예시Main IdeasLLM에게 Explicit 하게 CoT를 학습시키지 않아도, LLM 안에는 Implicit 하게 CoT Path가 내재되어 있지 않을까? -> 그걸 끄집어내 보자!Gree..

  • format_list_bulleted 인공지능/논문
  • · 2024. 11. 20.
  • textsms
[논문 리뷰] Self-Rewarding Language Models

[논문 리뷰] Self-Rewarding Language Models

Authors (Affiliation)Yuan, 조경현 교수, Meta, NYU24.01요약Reward Model을 따로 두지 않고, LLM을 답변도 만들고 답변을 평가까지 같이 해본 결과.AI 피드백은 RLAIF 연구에서 이미 있었으나, 자기 스스로 답변하고 평가하고, 그 데이터로 다시 학습까지 하는 연구는 없었음중요한 점은 LLM을 Judge로 활용하기 위해 저자들이 사용한 프롬프트ProblemHuman Preference로 Reward Model을 학습하면 사실 Super Human Level에는 도달하기 어렵다.또한 Reward Model을 일단 학습하면 Agent를 학습할 때는 Frozen 형태로 사용하기 때문에 더 향상되지 못한다.DPO 방식은 일반적으로 Iterative 학습하지 않는다.Ma..

  • format_list_bulleted 인공지능/논문
  • · 2024. 11. 20.
  • textsms
  • navigate_before
  • 1
  • navigate_next
공지사항
전체 카테고리
  • 분류 전체보기 (115)
    • 프로젝트 (3)
      • 강화학습 코인 트레이더 (3)
    • 인공지능 (70)
      • [책] 딥러닝- 강화학습 주식투자 (3)
      • [책] 밑바닥부터 시작하는 딥러닝1 (7)
      • [책] 밑바닥부터 시작하는 딥러닝2 (7)
      • [책] 밑바닥부터 시작하는 딥러닝4 (10)
      • [책] 강화학습 이론 & 실습 (5)
      • [책] 머신러닝-딥러닝에 필요한 기초 수학 (10)
      • [강의] 딥러닝, 머신러닝을 활용한 시계열 데이터 분석 (6)
      • [강의] 혁펜하임 딥러닝 강의 (10)
      • 교양 서적 (2)
      • 논문 (9)
    • 투자 (21)
      • 투자 관련 책 (19)
    • 인문학 (5)
    • 일상 (10)
      • 영화 (10)
      • 여행 (0)
      • 성장 일기 (0)
    • 영어 공부 (1)
      • 쉐도잉 (1)
      • 영단어 (0)
최근 글
인기 글
최근 댓글
태그
  • #벨만 방정식
  • #llm
  • #배당주
  • #자본주의
  • #cnn
  • #딥러닝
  • #rnn
  • #손잡이 달린 컵
  • #혁펜하임
  • #마르코프 속성
전체 방문자
오늘
어제
전체
Copyright © 쭈미로운 생활 All rights reserved.
Designed by JJuum

티스토리툴바