TIL
  • Main
  • TIL : ML
    • AI News
      • AI-powered coding, free of charge with Colab
    • Paper
      • Retrieval-augmented generation for knowledge-intensive nlp tasks
        • reference 정리
      • Sequence to Sequence
    • Generative AI
      • LLM
        • 기본 개념
    • Boostcamp
      • Daily Report
        • 2021
          • 09
            • week4
            • week5
          • 10
            • week1
            • week2
            • week3
            • week4
          • 11
            • week1
            • week2
            • week3
            • week4
            • week5
          • 12
            • week1
            • week2
            • week3
      • Final Project
        • 프로젝트 기획
          • 🌟최종 프로젝트 기획
          • 최종 프로젝트 Version
          • 아이디어 수집
          • 욕설, 혐오발언 감지
          • 라이브 커머스 레포팅 프로젝트
        • 프로젝트 진행
          • week1
          • week2
          • week3
      • Competition
        • 1. [NLP] 문장 내 개체간 관계 추출
          • Day1 (9.27, 월)
          • Day2-3 (9.28~29, 화~수)
          • Day4 (9.30, 목)
          • Day5 (10.1, 금)
          • Day6~7 (10.2~3, 토~일)
          • Day8 (10.4, 월)
          • Day9 (10.5, 화)
          • Day10 (10.6, 수)
          • Day 11 (10.7 목)
        • 2. [NLP] MRC 프로젝트
          • Day1 (10.25, 월)
          • Day2 (10.26, 화)
          • Day3 (10.27, 수)
          • Day4-5 (10.28-29, 목-금)
          • Day6 (11.1, 월)
          • Day7 (11.2, 화)
          • Day8 (11.3, 수)
          • Day9 (11.4, 목)
        • 🔨3. [NLP] 데이터 제작
          • Day1
        • 🔨4. [공통] 모델 경량화
      • [U Stage] - DL basic
        • (01강) 딥러닝 기본 용어 설명 - Historical Review
        • (02강) 뉴럴 네트워크 - MLP (Multi-Layer Perceptron)
        • (03강) Optimization
        • 🔨(04강) Convolution은 무엇인가?
        • 🔨(05강) Modern CNN - 1x1 convolution의 중요성
        • 🔨(06강) Computer Vision Applications
        • (07강) Sequential Models - RNN
        • (08강) Sequential Models - Transformer
        • Page 2
      • [U Stage] - PyTorch
        • (01강) Introduction to PyTorch
        • (02강) PyTorch Basics
        • (03강) PyTorch 프로젝트 구조 이해하기
        • (04강) AutoGrad & Optimizer
        • (05강) Dataset & Dataloader
        • (06강) 모델 불러오기
        • (07강) Monitoring tools for PyTorch
        • (08강) Multi-GPU 학습
        • (09강) Hyperparameter Tuning
        • (10강) PyTorch Troubleshooting
      • [U Stage] - NLP
        • (01강) Introduction to NLP, Bag-of-Words
        • (02강) Word Embedding
        • (03강) Recurrent Neural Network and Language Modeling
        • (04강) LSTM and GRU
        • (05강) Sequence to Sequence with Attention
        • (06강) Beam Search and BLEU score
        • (07-08강) Transformer
        • (09강) Self-supervised Pre-training Models
      • [P Stage] - KLUE
        • (1강) 인공지능과 자연어 처리
        • (2강) 자연어의 전처리
        • (3강) BERT 언어모델 소개
        • (4강) 한국어 BERT 언어 모델 학습
        • (5강) BERT 기반 단일 문장 분류 모델 학습
        • (6강) BERT 기반 두 문장 관계 분류 모델 학습
        • (7강) BERT 언어모델 기반의 문장 토큰 분류
        • 오피스아워 (9.30, 목)
        • (8강) GPT 언어 모델
        • (9강) GPT 언어모델 기반의 자연어 생성
        • (10강) 최신 자연어처리 연구
      • [P Stage] - MRC
        • Before Study
        • (1강) MRC Intro & Python Basics
        • (2강) Extraction-based MRC
        • (3강) Generation-based MRC
        • (4강) Passage Retrieval - Sparse Embedding
        • (5강) Passage Retrieval - Dense Embedding
        • 오피스아워
        • (6강) Scaling up with FAISS
        • (7강) Linking MRC and Retrieval
        • (8강) Reducing Training Bias
        • (9강) Closed-book QA with T5
        • (10강) QA with Phrase Retrieval
        • 마스터클래스
      • [P Stage] - 데이터제작(NLP)
        • (1강) 데이터 제작의 A to Z
        • (2강) 자연어처리 데이터 기초
        • (3강) 자연어처리 데이터 소개 1
        • (4강) 자연어처리 데이터 소개 2
        • (5강) 원시 데이터의 수집과 가공
        • 오피스아워 (11.10, 수)
        • (6강) 데이터 구축 작업 설계
        • (7강) 데이터 구축 가이드라인 작성 기초
        • (8강) 관계 추출 과제의 이해
        • (9강) 관계 추출 관련 논문 읽기
        • (10강) 관계 추출 데이터 구축 실습
      • [P Stage] - 모델 최적화
        • (1강) 최적화 소개 및 강의 개요
        • (2강) 대회 및 데이터셋 소개
        • (3강) 작은 모델, 좋은 파라미터 찾기: AutoML 이론
        • 🔨(4강) 작은 모델, 좋은 파라미터 찾기: AutoML 실습
        • (5강) 작은 모델, 좋은 파라미터 찾기: Data Augmentation & AutoML 결과 분석
        • 🔨오피스아워 -Baseline 코드에 모듈 작성하기(신종선 멘토님)
      • [P Stage] - Product Serving
        • Part 1: Product Serving 개론
          • 1.1 강의 진행 방식
          • 1.2 MLOps 개론
          • 1.3 Model Serving
          • 1.4 머신러닝 프로젝트 라이프 사이클
        • Part 2: 프로토타입부터 점진적으로 개선하기
          • 2.1 프로토타이핑 - Notebook 베이스(Voila)
          • 2.2 프로토타이핑 - 웹 서비스 형태(Streamlit)
          • 2.3 Linux & Shell Command
          • 2.4 Cloud
          • 2.5 Github Action을 활용한 CI/CD
        • Part 3: 더 완성화된 제품으로
          • 3.1.1 FastAPI
          • 3.1.2 Fast API
          • 3.1.3 Fast API
          • 3.2 Docker
          • 3.3 Logging
          • 3.4 MLFlow
        • Part 4: 심화 소재
          • 4.1 BentoML
          • 4.2 Airflow
          • 4.3 머신러닝 디자인 패턴
          • 4.4 앞으로 더 공부하면 좋을 내용
      • 특강
        • (특강) 김상훈 - 캐글 그랜드마스터의 노하우 대방출
        • (특강) 이활석 - 서비스 향 AI 모델 개발하기
        • (특강) 구종만 - AI + ML과 Quant Trading
        • (특강) 문지형 - 내가 만든 AI 모델은 합법일까, 불법일까
        • (특강) 이준엽 - Full Stack ML Engineer
        • (특강) 박은정 - AI 시대의 커리어 빌딩
        • (특강) 오혜연 - AI Ethics
    • Competition
      • (DACON)한국어 문장 관계 분류 경진대회
        • Day1(2.14, 월)
        • Day2(2.15, 화)
        • Day3(2.16, 수)
        • Day4(2.17, 목)
      • 2021 인공지능 데이터 활용 경진대회
        • 역량평가
          • Day1 (9.28, 화)
          • Day2 (9.29, 수)
          • Day3 (9.30, 목)
        • 예선
          • Data 분석
          • NSML
          • What We Have Done?
    • ETC
      • 인터뷰 대비
        • Computer Science
        • ML/DL
      • Poetry로 dependency 관리
        • window에서 설치하기
      • code block
      • 공부할 것 임시보관
      • Transformer to T5
      • Hugging Face Tutorial
        • Ch1. Transformer models
        • Ch2. Using Transformers
        • Ch3. Fine-tuning a model with the Trainer API
      • KLUE
      • Pandas
  • TIL : Ops
    • AWS
      • SageMaker
  • TIL : Computer (CS)
    • Error
      • TextEncodeInput must be Union[TextInputSequence, Tuple[InputSequence, InputSequence]]
    • Algorithm
      • Theory
      • Programmers
        • 기능개발
    • ETC
      • Github 커밋 히스토리 삭제
Powered by GitBook
On this page
  • 1. 기획 배경
  • 1.1. 현재 라이브 커머스에서는 분석, 통계 데이터 미제공
  • 2. 기한 및 자원
  • 3. 적용범위 (도메인/데이터)
  • 3.1. 적용범위
  • 3.2. 데이터
  • 4. 기대효과
  • 5. 프로젝트 평가 방법
  • 6. 예상되는 문제점

Was this helpful?

  1. TIL : ML
  2. Boostcamp
  3. Final Project
  4. 프로젝트 기획

라이브 커머스 레포팅 프로젝트

Previous욕설, 혐오발언 감지Next프로젝트 진행

Last updated 3 years ago

Was this helpful?

1. 기획 배경

코로나로 인해 매장에 직접 방문해서 물건을 구매하기 보다 인터넷을 통해 구매하고자하는 사람이 늘어났다. 단순히 사진만 보고 구매를 결정하기보다 홈쇼핑같이 방송을 통해 소개되는 제품을 구매하고자하기 마련이다보니 라이브 커머스가 활성화 되어 있는 추세이다. 이미 다양한 기업에서 라이브 커머스를 진행하고 있으며, 홈쇼핑보다 쉽고 간편한 방법으로 인해 많은 판매자와 소비자가 형성된 걸 확인할 수 있었다.

우리는 이런 방송에서의 실시간 채팅을 통해 소비자들의 반응을 분석하고, 궁금해하는 것들이 무엇인지 레포팅하여 판매자들에게 보다 효율적인 판매 전략을 세울수 있도록 도와주는 솔루션을 개발하고자 하였다.

1.1. 현재 라이브 커머스에서는 분석, 통계 데이터 미제공

실시간 스트리밍 서비스와 채팅, 문의글, 구매 건수 등에 대한 정보는 다루고 있는 것으로 보인다. 우리는 NLP 요약 기술과 감성분석 기술을 통해 각 시간대별 시청자들의 반응을 통계화하고 자주 발생하는 질문을 요약하여 판매자에게 제공한다.

2. 기한 및 자원

  • 기한: 11월 15일 (월) ~ 12월 24일 (금), 6주

  • 인원: 7명

  • 장비: v-100 (인당 1개)

3. 적용범위 (도메인/데이터)

라이브 스트리밍 방송에서 통계적인 데이터가 필요한 사이트면 모두 적용이 가능하다. 물론 각 도메인 마다 조금씩 목적이 다르기에 커스터마이징이 필요하다. 우선 라이브커머스를 타겟으로 감성분석과 요약 추출을 통해 필요한 통계 데이터를 제공하는 것을 목표로 한다.

3.1. 적용범위

  • 라이브 커머스

  • 라이브 스트리밍 방송

3.2. 데이터

문제점으로는 우리가 하고자하는 라이브 커머스 채팅 데이터 셋은 직접 크롤링으로 구해야하는 것. 라벨링 또한 직접 해주어야하는 점이 제한된 프로젝트 기한내에 할 수 있는 부분인지 고려해보아야한다.

또한 감성대화 등이 다른 도메인 기준으로 형성되었기 때문에 유사한 결과를 얻을 수 있을 것인지에 대한 추가적인 검증이 필요하다.

4. 기대효과

  • 판매자에게 통계 데이터를 제공함으로 인해 플랫폼 사용 만족도 상승 효과

  • 분석을 통해 판매자들이 보다 질 높은 방송을 제공 -> 소비자 유입 효과

5. 프로젝트 평가 방법

평가하기 위한 기준이 어려울 수 있을 것 같다.

  • 테스트 데이터 셋 구축 필요

  • 방송 내 채팅을 직접 라벨링한 후 각각의 데이터의 분류 + 감성분석을 진행

  • F1-Score를 활용

6. 예상되는 문제점

  • 데이터 수집 및 라벨링 작업

    • 크롤러를 통한 방송 데이터 수집

    • 수집 된 데이터의 라벨링 작업

  • 통계데이터의 시각화 제공 방안에 대해 고민

LogoGitHub - warnikchow/3i4k: Intonation-aided intention identification for KoreanGitHub
Logo한국어 대화 요약AI 허브
Logo한국어 자연어 처리 데이터셋 목록아기여우의 자기계발로그
Logo감성 대화 말뭉치AI 허브
LogoGitHub - e9t/nsmc: Naver sentiment movie corpusGitHub