일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- 릿코드
- Microsoft
- 머신러닝
- Azure
- 파이썬알고리즘
- two-pointer
- 리트코드
- GenerativeAI
- 파이썬기초
- 클라우드
- 구글퀵랩
- Python3
- 생성형AI
- 코드업파이썬
- 자연어처리
- 데이터사이언스
- Python
- 알고리즘
- 파이썬기초100제
- 투포인터
- 파이썬
- 빅데이터
- gcp
- codeup
- LeetCode
- 코드업
- GenAI
- Blazor
- nlp
- C#
- Today
- Total
목록언어모델 (2)
Tech for good

모든 출처: Sk techx Tacademy (www.youtube.com/watch?v=zia49ZyKiX0&t=4s) 강의 목표 자연어 처리의 종류와, 자연어 처리가 현업에서 적용된 예제를 소개한다. BERT가 탄생하게 된 과정과, BERT에 적용된 메커니즘을 살펴본다. BERT를 이용한 다양한 자연어 처리 실험 결과들을 소개한다. Open source로 공개된 BERT 코드를 이용해 한국어 BERT를 학습해보고, 다양한 자연어 처리 task를 직접 실습해본다. 목차 2.언어 모델(Language Model) 2.1. 모델이란? 2.2. 언어 모델 2.2.1. Markov 확률 기반의 언어 모델 2.2.2. Recurrent Neural Network(RNN)기반의 언어 모델 (1) RNN 언어 모델..

(한국어 임베딩(Sentence Embeddings Using Korean Corpora) - 이기창 지음 / NAVER Chatbot Model 감수) 목차 2. 벡터가 어떻게 의미를 가지게 되는가 2.1. 자연어 계산과 이해 2.2. 어떤 단어가 많이 쓰였는가 2.2.1. 백오브워즈 가정 2.2.2. TF-IDF 2.2.3. Deep Averaging Network 2.3. 단어가 어떤 순서로 쓰였는가 2.3.1. 통계 기반 언어 모델 2.3.2. 뉴럴 네트워크 기반 언어 모델 2.4. 어떤 단어가 같이 쓰였는가 2.4.1. 분포 가정 2.4.2. 분포와 의미 (1): 형태소 2.4.3. 분포와 의미 (2): 품사 2.4.4. 점별 상호 정보량 2.4.5. Word2Vec 2.5. 이 장의 요약 2...