일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- Microsoft
- 자연어처리
- 생성형AI
- 구글퀵랩
- nlp
- GenerativeAI
- 파이썬알고리즘
- codeup
- 투포인터
- 클라우드
- C#
- 코드업파이썬
- Azure
- 머신러닝
- LeetCode
- GenAI
- Python
- 파이썬기초100제
- 파이썬
- Python3
- gcp
- 데이터사이언스
- two-pointer
- 코드업
- 릿코드
- 빅데이터
- 파이썬기초
- Blazor
- 알고리즘
- 리트코드
- Today
- Total
목록n-gram (2)
Tech for good

모든 출처: Sk techx Tacademy (www.youtube.com/watch?v=qlxrXX5uBoU&t=1s) 강의 목표 자연어 처리의 종류와, 자연어 처리가 현업에서 적용된 예제를 소개한다. BERT가 탄생하게 된 과정과, BERT에 적용된 메커니즘을 살펴본다. BERT를 이용한 다양한 자연어 처리 실험 결과들을 소개한다. Open source로 공개된 BERT 코드를 이용해 한국어 BERT를 학습해보고, 다양한 자연어 처리 task를 직접 실습해본다. 목차 1. 자연어 처리(Natural Language Processing, NLP) 1.1. 자연어란? 1.2. 자연어 처리 기술 1.2.1. 자연어 처리 접근법 1.2.2. 자연어 처리 단계 1.2.3. 다양한 자연어 처리 Applicati..

(한국어 임베딩(Sentence Embeddings Using Korean Corpora) - 이기창 지음 / NAVER Chatbot Model 감수) 목차 2. 벡터가 어떻게 의미를 가지게 되는가 2.1. 자연어 계산과 이해 2.2. 어떤 단어가 많이 쓰였는가 2.2.1. 백오브워즈 가정 2.2.2. TF-IDF 2.2.3. Deep Averaging Network 2.3. 단어가 어떤 순서로 쓰였는가 2.3.1. 통계 기반 언어 모델 2.3.2. 뉴럴 네트워크 기반 언어 모델 2.4. 어떤 단어가 같이 쓰였는가 2.4.1. 분포 가정 2.4.2. 분포와 의미 (1): 형태소 2.4.3. 분포와 의미 (2): 품사 2.4.4. 점별 상호 정보량 2.4.5. Word2Vec 2.5. 이 장의 요약 2...