TIL
  • Main
  • TIL : ML
    • AI News
      • AI-powered coding, free of charge with Colab
    • Paper
      • Retrieval-augmented generation for knowledge-intensive nlp tasks
        • reference 정리
      • Sequence to Sequence
    • Generative AI
      • LLM
        • 기본 개념
    • Boostcamp
      • Daily Report
        • 2021
          • 09
            • week4
            • week5
          • 10
            • week1
            • week2
            • week3
            • week4
          • 11
            • week1
            • week2
            • week3
            • week4
            • week5
          • 12
            • week1
            • week2
            • week3
      • Final Project
        • 프로젝트 기획
          • 🌟최종 프로젝트 기획
          • 최종 프로젝트 Version
          • 아이디어 수집
          • 욕설, 혐오발언 감지
          • 라이브 커머스 레포팅 프로젝트
        • 프로젝트 진행
          • week1
          • week2
          • week3
      • Competition
        • 1. [NLP] 문장 내 개체간 관계 추출
          • Day1 (9.27, 월)
          • Day2-3 (9.28~29, 화~수)
          • Day4 (9.30, 목)
          • Day5 (10.1, 금)
          • Day6~7 (10.2~3, 토~일)
          • Day8 (10.4, 월)
          • Day9 (10.5, 화)
          • Day10 (10.6, 수)
          • Day 11 (10.7 목)
        • 2. [NLP] MRC 프로젝트
          • Day1 (10.25, 월)
          • Day2 (10.26, 화)
          • Day3 (10.27, 수)
          • Day4-5 (10.28-29, 목-금)
          • Day6 (11.1, 월)
          • Day7 (11.2, 화)
          • Day8 (11.3, 수)
          • Day9 (11.4, 목)
        • 🔨3. [NLP] 데이터 제작
          • Day1
        • 🔨4. [공통] 모델 경량화
      • [U Stage] - DL basic
        • (01강) 딥러닝 기본 용어 설명 - Historical Review
        • (02강) 뉴럴 네트워크 - MLP (Multi-Layer Perceptron)
        • (03강) Optimization
        • 🔨(04강) Convolution은 무엇인가?
        • 🔨(05강) Modern CNN - 1x1 convolution의 중요성
        • 🔨(06강) Computer Vision Applications
        • (07강) Sequential Models - RNN
        • (08강) Sequential Models - Transformer
        • Page 2
      • [U Stage] - PyTorch
        • (01강) Introduction to PyTorch
        • (02강) PyTorch Basics
        • (03강) PyTorch 프로젝트 구조 이해하기
        • (04강) AutoGrad & Optimizer
        • (05강) Dataset & Dataloader
        • (06강) 모델 불러오기
        • (07강) Monitoring tools for PyTorch
        • (08강) Multi-GPU 학습
        • (09강) Hyperparameter Tuning
        • (10강) PyTorch Troubleshooting
      • [U Stage] - NLP
        • (01강) Introduction to NLP, Bag-of-Words
        • (02강) Word Embedding
        • (03강) Recurrent Neural Network and Language Modeling
        • (04강) LSTM and GRU
        • (05강) Sequence to Sequence with Attention
        • (06강) Beam Search and BLEU score
        • (07-08강) Transformer
        • (09강) Self-supervised Pre-training Models
      • [P Stage] - KLUE
        • (1강) 인공지능과 자연어 처리
        • (2강) 자연어의 전처리
        • (3강) BERT 언어모델 소개
        • (4강) 한국어 BERT 언어 모델 학습
        • (5강) BERT 기반 단일 문장 분류 모델 학습
        • (6강) BERT 기반 두 문장 관계 분류 모델 학습
        • (7강) BERT 언어모델 기반의 문장 토큰 분류
        • 오피스아워 (9.30, 목)
        • (8강) GPT 언어 모델
        • (9강) GPT 언어모델 기반의 자연어 생성
        • (10강) 최신 자연어처리 연구
      • [P Stage] - MRC
        • Before Study
        • (1강) MRC Intro & Python Basics
        • (2강) Extraction-based MRC
        • (3강) Generation-based MRC
        • (4강) Passage Retrieval - Sparse Embedding
        • (5강) Passage Retrieval - Dense Embedding
        • 오피스아워
        • (6강) Scaling up with FAISS
        • (7강) Linking MRC and Retrieval
        • (8강) Reducing Training Bias
        • (9강) Closed-book QA with T5
        • (10강) QA with Phrase Retrieval
        • 마스터클래스
      • [P Stage] - 데이터제작(NLP)
        • (1강) 데이터 제작의 A to Z
        • (2강) 자연어처리 데이터 기초
        • (3강) 자연어처리 데이터 소개 1
        • (4강) 자연어처리 데이터 소개 2
        • (5강) 원시 데이터의 수집과 가공
        • 오피스아워 (11.10, 수)
        • (6강) 데이터 구축 작업 설계
        • (7강) 데이터 구축 가이드라인 작성 기초
        • (8강) 관계 추출 과제의 이해
        • (9강) 관계 추출 관련 논문 읽기
        • (10강) 관계 추출 데이터 구축 실습
      • [P Stage] - 모델 최적화
        • (1강) 최적화 소개 및 강의 개요
        • (2강) 대회 및 데이터셋 소개
        • (3강) 작은 모델, 좋은 파라미터 찾기: AutoML 이론
        • 🔨(4강) 작은 모델, 좋은 파라미터 찾기: AutoML 실습
        • (5강) 작은 모델, 좋은 파라미터 찾기: Data Augmentation & AutoML 결과 분석
        • 🔨오피스아워 -Baseline 코드에 모듈 작성하기(신종선 멘토님)
      • [P Stage] - Product Serving
        • Part 1: Product Serving 개론
          • 1.1 강의 진행 방식
          • 1.2 MLOps 개론
          • 1.3 Model Serving
          • 1.4 머신러닝 프로젝트 라이프 사이클
        • Part 2: 프로토타입부터 점진적으로 개선하기
          • 2.1 프로토타이핑 - Notebook 베이스(Voila)
          • 2.2 프로토타이핑 - 웹 서비스 형태(Streamlit)
          • 2.3 Linux & Shell Command
          • 2.4 Cloud
          • 2.5 Github Action을 활용한 CI/CD
        • Part 3: 더 완성화된 제품으로
          • 3.1.1 FastAPI
          • 3.1.2 Fast API
          • 3.1.3 Fast API
          • 3.2 Docker
          • 3.3 Logging
          • 3.4 MLFlow
        • Part 4: 심화 소재
          • 4.1 BentoML
          • 4.2 Airflow
          • 4.3 머신러닝 디자인 패턴
          • 4.4 앞으로 더 공부하면 좋을 내용
      • 특강
        • (특강) 김상훈 - 캐글 그랜드마스터의 노하우 대방출
        • (특강) 이활석 - 서비스 향 AI 모델 개발하기
        • (특강) 구종만 - AI + ML과 Quant Trading
        • (특강) 문지형 - 내가 만든 AI 모델은 합법일까, 불법일까
        • (특강) 이준엽 - Full Stack ML Engineer
        • (특강) 박은정 - AI 시대의 커리어 빌딩
        • (특강) 오혜연 - AI Ethics
    • Competition
      • (DACON)한국어 문장 관계 분류 경진대회
        • Day1(2.14, 월)
        • Day2(2.15, 화)
        • Day3(2.16, 수)
        • Day4(2.17, 목)
      • 2021 인공지능 데이터 활용 경진대회
        • 역량평가
          • Day1 (9.28, 화)
          • Day2 (9.29, 수)
          • Day3 (9.30, 목)
        • 예선
          • Data 분석
          • NSML
          • What We Have Done?
    • ETC
      • 인터뷰 대비
        • Computer Science
        • ML/DL
      • Poetry로 dependency 관리
        • window에서 설치하기
      • code block
      • 공부할 것 임시보관
      • Transformer to T5
      • Hugging Face Tutorial
        • Ch1. Transformer models
        • Ch2. Using Transformers
        • Ch3. Fine-tuning a model with the Trainer API
      • KLUE
      • Pandas
  • TIL : Ops
    • AWS
      • SageMaker
  • TIL : Computer (CS)
    • Error
      • TextEncodeInput must be Union[TextInputSequence, Tuple[InputSequence, InputSequence]]
    • Algorithm
      • Theory
      • Programmers
        • 기능개발
    • ETC
      • Github 커밋 히스토리 삭제
Powered by GitBook
On this page
  • 1. 인공지능의 탄생과 자연어처리
  • 1.1. 자연어처리 소개
  • 1.2. 자연어처리의 응용분야
  • 1.3. 자연어 단어 임베딩
  • 2. 딥러닝 기반의 자연어처리와 언어모델
  • 2.1. 언어모델
  • 2.2. Sequence to Sequence (Seq2Seq)
  • 2.3. Attention
  • Self-Attention
  • Futher Question

Was this helpful?

  1. TIL : ML
  2. Boostcamp
  3. [P Stage] - KLUE

(1강) 인공지능과 자연어 처리

Previous[P Stage] - KLUENext(2강) 자연어의 전처리

Last updated 3 years ago

Was this helpful?

인공지능의 발전이 어떻게 자연어 처리 분야에 영향을 주고 발전하게 되었는지 자연어처리의 기초 '언어모델'의 개념 탄생

참고 링크

1. 인공지능의 탄생과 자연어처리

1.1. 자연어처리 소개

인공지능(AI)이란? 인간이 지능을 가지는 학습, 추리, 적응, 논증 다위의 기능을 갖춘 컴퓨터 시스템

1.2. 자연어처리의 응용분야

인간과 컴퓨터의 자연어 이해과

  • 대부분의 Task는 분류문제로 볼 수 있다.

  • 분류를 위해서는 데이터를 수학적으로 표현해야한다.

1.3. 자연어 단어 임베딩

  • Vector로 표현된 단어는 연산이 가능하다.

  • 위의 예시를 보면 할아버지 - 할머니 를 통해 남자, 여자 로 나눌 수 있을 것이고 여기에 농구를 더함으로써 배구를 추출하는 것을 확인할 수 있다. 예시가 조금 맞지 않다고 생각이 되면 한국 - 서울을 하게 되면 나라와 수도의 관계를 얻을 수 있고, 여기에 도쿄를 더하면 일본을 얻을 수 있다.

  • 실생활에서는 신조어나 오탈자 등 OOV 단어가 많이 나올 수 있고, Word2Vec은 OOV 단어들을 전혀 인식할 수 없게 되는 문제가 있다.

Word2vec과 유사하지만 FastText는 n-gram으로 나누어서 학습하여 OOV문제를 해소할 수 있다.

  • 빈도 수가 적은 단어에 대해 유사단어를 잘 추출하는 것을 확인할 수 있다.

  • 하지만 word2Vec이나 Fasttext의 경우 주변단어를 가지고 예측하기 때문에 문맥을 고려할 수 없다는 단점이있다. 즉, 동음이이의어 등의 단어에 대해 예측이 잘 되지 않는다는 한계가 있다.

2. 딥러닝 기반의 자연어처리와 언어모델

2.1. 언어모델

  • 주어진 단어들로부터 그 다음에 등장한 단어의 확률을 예측하는 방식으로 학습

Markov 기반의 언어모델

RNN 기반의 언어모델

2.2. Sequence to Sequence (Seq2Seq)

Seq2Seq 구조가 가지고 있는 문제점은 1) 입력 seq의 길이가 긴경우 처음 token에 대한 정보가 희석된다. 2) context vector 가 고정된 크기를 가지고 있어 긴 seq에 대한 정보를 함축해서 가지고 있을 수 가 없다. 3) 모든 token이 영향을 미치게 되어 중요하지 않은 token도 영향을 주게 된다.

2.3. Attention

순차적으로 연산이 이루어지다보니 연산 속도가 느리다.

Self-Attention

  • 모든 Token들을 연결하게 되어 순서를 없게 되었다.

Futher Question

  • Embedding이 잘 되었는지, 안되었는지를 평가할 수 있는 방법은 무엇이 있을까요?

    • WordSim353

    • Spearman's correlation

    • Analogy test

  • Vanilar Transformer는 어떤 문제가 있고, 이걸 어떻게 극복할 수 있을까요?

    • Longformer

    • Linformer

    • Reformer

자연어처리
FastText
Seq2Seq
Seq2Seq + attention