자연어 처리 (Natural Language Processing)

목차

  1. 텍스트 분류
  2. 기계 번역
  3. 연관성 예측 (Entailment prediction)
  4. 명명된 엔티티 인식
  5. Sequence-to-sequence
  6. 텍스트 유사도 검색
  7. 언어 모델링
  8. 효율적인 매개변수 미세 조정
  9. 기타

텍스트 분류

V3

처음부터 텍스트 분류 (Text classification from scratch)

.

V2

Active 학습을 사용한 분류 리뷰 (Review Classification using Active Learning)

.

V3

FNet을 사용한 텍스트 분류 (Text Classification using FNet)

.

V2

대규모 다중 레이블 텍스트 분류 (Large-scale multi-label text classification)

.

V3

트랜스포머로 텍스트 분류 (Text classification with Transformer)

.

V3

스위치 트랜스포머로 텍스트 분류 (Text classification with Switch Transformer)

.

V2

의사 결정 포레스트와 사전 트레이닝된 임베딩을 사용한 텍스트 분류 (Text classification using Decision Forests and pretrained embeddings)

.

V3

사전 트레이닝된 단어 임베딩 사용 (Using pre-trained word embeddings)

.

V3

IMDB에 대한 양방향 LSTM (Bidirectional LSTM on IMDB)

.

V3

KerasNLP 및 tf.distribute를 사용한 데이터 병렬 트레이닝 (Data Parallel Training with KerasNLP and tf.distribute)

.

기계 번역

V3

KerasNLP를 사용한 영어-스페인어 번역 (English-to-Spanish translation with KerasNLP)

.

V3

시퀀스-to-시퀀스 트랜스포머를 사용한 영어-스페인어 번역 (English-to-Spanish translation with a sequence-to-sequence Transformer)

.

V3

문자 레벨 recurrent 시퀀스-to-시퀀스 모델 (Character-level recurrent sequence-to-sequence model)

.

연관성 예측 (Entailment prediction)

V2

멀티모달 수반 (Multimodal entailment)

.

명명된 엔티티 인식

V3

트랜스포머를 사용한 명명된 엔티티 인식 (Named Entity Recognition using Transformers)

.

Sequence-to-sequence

V2

BERT를 사용한 텍스트 추출 (Text Extraction with BERT)

.

V3

숫자 덧셈을 수행하기 위한 시퀀스-to-시퀀스 학습 (Sequence to sequence learning for performing number addition)

.

V3

KerasNLP를 사용한 시맨틱 유사성 (Semantic Similarity with KerasNLP)

.

V3

BERT를 사용한 시맨틱 유사성 (Semantic Similarity with BERT)

.

V3

Siamese RoBERTa 네트워크를 사용한 문장 임베딩 (Sentence embeddings using Siamese RoBERTa-networks)

.

언어 모델링

V2

BERT를 사용한 엔드투엔드 마스크 언어 모델링 (End-to-end Masked Language Modeling with BERT)

.

V2

Hugging Face 트랜스포머로 BERT 사전 트레이닝하기 (Pretraining BERT with Hugging Face Transformers)

.

효율적인 매개변수 미세 조정

V3

LoRA가 있는 GPT-2의 효율적인 파라미터 미세 조정 (Parameter-efficient fine-tuning of GPT-2 with LoRA)

.

기타

V2

BART를 사용한 추상적 텍스트 요약 (Abstractive Text Summarization with BART)

.

V2

🤗 트랜스포머 및 TPU를 사용하여 처음부터 언어 모델 트레이닝하기 (Training a language model from scratch with 🤗 Transformers and TPUs)

.

V2

전이 학습으로 객관식 과제 (MultipleChoice Task with Transfer Learning)

.

V2

Hugging Face 트랜스포머로 질문 답변하기 (Question Answering with Hugging Face Transformers)

.

V2

Hugging Face 트랜스포머를 사용한 추상적 요약 (Abstractive Summarization with Hugging Face Transformers)

.


Table of contents