- 원본 링크 : https://keras.io/examples/nlp/
- 최종 수정일 : 2024-04-01
자연어 처리 (Natural Language Processing)
목차
- 텍스트 분류
- 기계 번역
- 연관성 예측 (Entailment prediction)
- 명명된 엔티티 인식
- Sequence-to-sequence
- 텍스트 유사도 검색
- 언어 모델링
- 효율적인 매개변수 미세 조정
- 기타
텍스트 분류
★
V3
처음부터 텍스트 분류 (Text classification from scratch)
.
V2
Active 학습을 사용한 분류 리뷰 (Review Classification using Active Learning)
.
V3
FNet을 사용한 텍스트 분류 (Text Classification using FNet)
.
V2
대규모 다중 레이블 텍스트 분류 (Large-scale multi-label text classification)
.
V3
트랜스포머로 텍스트 분류 (Text classification with Transformer)
.
V3
스위치 트랜스포머로 텍스트 분류 (Text classification with Switch Transformer)
.
V2
.
V3
사전 트레이닝된 단어 임베딩 사용 (Using pre-trained word embeddings)
.
V3
IMDB에 대한 양방향 LSTM (Bidirectional LSTM on IMDB)
.
V3
KerasNLP 및 tf.distribute를 사용한 데이터 병렬 트레이닝 (Data Parallel Training with KerasNLP and tf.distribute)
.
기계 번역
V3
KerasNLP를 사용한 영어-스페인어 번역 (English-to-Spanish translation with KerasNLP)
.
★
V3
.
V3
문자 레벨 recurrent 시퀀스-to-시퀀스 모델 (Character-level recurrent sequence-to-sequence model)
.
연관성 예측 (Entailment prediction)
V2
멀티모달 수반 (Multimodal entailment)
.
명명된 엔티티 인식
V3
트랜스포머를 사용한 명명된 엔티티 인식 (Named Entity Recognition using Transformers)
.
Sequence-to-sequence
V2
BERT를 사용한 텍스트 추출 (Text Extraction with BERT)
.
V3
숫자 덧셈을 수행하기 위한 시퀀스-to-시퀀스 학습 (Sequence to sequence learning for performing number addition)
.
텍스트 유사도 검색
V3
KerasNLP를 사용한 시맨틱 유사성 (Semantic Similarity with KerasNLP)
.
V3
BERT를 사용한 시맨틱 유사성 (Semantic Similarity with BERT)
.
V3
Siamese RoBERTa 네트워크를 사용한 문장 임베딩 (Sentence embeddings using Siamese RoBERTa-networks)
.
언어 모델링
V2
BERT를 사용한 엔드투엔드 마스크 언어 모델링 (End-to-end Masked Language Modeling with BERT)
.
V2
Hugging Face 트랜스포머로 BERT 사전 트레이닝하기 (Pretraining BERT with Hugging Face Transformers)
.
효율적인 매개변수 미세 조정
V3
LoRA가 있는 GPT-2의 효율적인 파라미터 미세 조정 (Parameter-efficient fine-tuning of GPT-2 with LoRA)
.
기타
V2
BART를 사용한 추상적 텍스트 요약 (Abstractive Text Summarization with BART)
.
V2
.
V2
전이 학습으로 객관식 과제 (MultipleChoice Task with Transfer Learning)
.
V2
Hugging Face 트랜스포머로 질문 답변하기 (Question Answering with Hugging Face Transformers)
.
V2
Hugging Face 트랜스포머를 사용한 추상적 요약 (Abstractive Summarization with Hugging Face Transformers)
.
Table of contents
- 처음부터 텍스트 분류
- Active 학습을 사용한 분류 리뷰
- FNet을 사용한 텍스트 분류
- 대규모 다중 레이블 텍스트 분류
- 트랜스포머로 텍스트 분류
- 스위치 트랜스포머로 텍스트 분류
- 의사 결정 포레스트와 사전 트레이닝된 임베딩을 사용한 텍스트 분류
- 사전 트레이닝된 단어 임베딩 사용
- IMDB에 대한 양방향 LSTM
- KerasNLP 및 tf.distribute를 사용한 데이터 병렬 트레이닝
- KerasNLP를 사용한 영어-스페인어 번역
- 시퀀스-to-시퀀스 트랜스포머를 사용한 영어-스페인어 번역
- 문자 레벨 recurrent 시퀀스-to-시퀀스 모델
- 멀티모달 Entailment
- 트랜스포머를 사용한 명명된 엔티티 인식
- BERT를 사용한 텍스트 추출
- 숫자 덧셈을 수행하기 위한 시퀀스-to-시퀀스 학습
- KerasNLP를 사용한 시맨틱 유사성
- BERT를 사용한 시맨틱 유사성
- Siamese RoBERTa 네트워크를 사용한 문장 임베딩
- BERT를 사용한 엔드투엔드 마스크 언어 모델링
- Hugging Face 트랜스포머로 BERT 사전 트레이닝하기
- LoRA가 있는 GPT-2의 효율적인 파라미터 미세 조정
- BART를 사용한 추상적 텍스트 요약
- 🤗 트랜스포머 및 TPU를 사용하여 처음부터 언어 모델 트레이닝하기
- 전이 학습으로 MultipleChoice 태스크
- Hugging Face 트랜스포머로 질문 답변하기
- Hugging Face 트랜스포머를 사용한 추상적 요약