콘텐츠로 이동

커뮤니티 [[community]]

이 페이지는 커뮤니티에서 개발한 🤗 Transformers 리소스를 재구성한 페이지입니다.

커뮤니티 리소스: [[community-resources]]

섹션 제목: “커뮤니티 리소스: [[community-resources]]”
리소스설명만든이
Hugging Face Transformers 용어집 플래시카드Transformers 문서 용어집을 기반으로 한 플래시카드 세트로, 지식을 장기적으로 유지하기 위해 특별히 설계된 오픈소스 크로스 플랫폼 앱인 Anki를 사용하여 쉽게 학습/수정할 수 있는 형태로 제작되었습니다. 플래시카드 사용법에 대한 소개 동영상을 참조하세요.Darigov 리서치

커뮤니티 노트북: [[community-notebooks]]

섹션 제목: “커뮤니티 노트북: [[community-notebooks]]”
노트북설명만든이
가사를 생성하기 위해 사전훈련된 트랜스포머를 미세 조정하기GPT-2 모델을 미세 조정하여 좋아하는 아티스트의 스타일로 가사를 생성하는 방법Aleksey KorshukOpen In Colab
Tensorflow 2로 T5 훈련하기Tensorflow 2를 사용하여 T5를 훈련시키는 방법. 이 노트북은 Tensorflow 2로 SQUAD를 사용하여 구현한 질의응답 작업을 보여줍니다.Muhammad HarrisOpen In Colab
TPU에서 T5 훈련하기Transformers와 Nlp를 사용하여 SQUAD로 T5를 훈련하는 방법Suraj PatilOpen In Colab
분류 및 객관식 문제를 위해 T5 미세 조정하기분류 및 객관식 문제에 맞게 텍스트-텍스트 형식을 사용하여 PyTorch Lightning으로 T5를 미세 조정하는 방법Suraj PatilOpen In Colab
새로운 데이터 세트와 언어로 DialoGPT 미세 조정하기자유 대화형 챗봇을 만들기 위해 새로운 데이터 세트로 DialoGPT 모델을 미세 조정하는 방법Nathan CooperOpen In Colab
Reformer로 긴 시퀀스 모델링하기Reformer로 최대 50만 토큰의 시퀀스를 훈련하는 방법Patrick von PlatenOpen In Colab
요약을 위해 BART 미세 조정하기blurr를 사용하여 fastai로 요약하기 위해 BART를 미세 조정하는 방법Wayde GilliamOpen In Colab
다른 사람의 트윗으로 사전훈련된 트랜스포머 미세 조정하기GPT-2 모델을 미세 조정하여 좋아하는 트위터 계정 스타일로 트윗을 생성하는 방법Boris DaymaOpen In Colab
Weights & Biases로 🤗 Hugging Face 모델 최적화하기W&B와 Hugging Face의 통합을 보여주는 전체 튜토리얼Boris DaymaOpen In Colab
Longformer 사전훈련하기기존 사전훈련된 모델의 “긴” 버전을 빌드하는 방법Iz BeltagyOpen In Colab
QA를 위해 Longformer 미세 조정하기QA 작업을 위해 Longformer를 미세 조정하는 방법Suraj PatilOpen In Colab
🤗 Nlp로 모델 평가하기Nlp로 TriviaQA에서 Longformer를 평가하는 방법Patrick von PlatenOpen In Colab
감정 범위 추출을 위해 T5 미세 조정하기감정 범위 추출을 위해 텍스트-텍스트 형식을 사용하여 PyTorch Lightning으로 T5를 미세 조정하는 방법Lorenzo AmpilOpen In Colab
다중 클래스 분류를 위해 DistilBert 미세 조정하기다중 클래스 분류를 위해 PyTorch를 사용하여 DistilBert를 미세 조정하는 방법Abhishek Kumar MishraOpen In Colab
다중 레이블 분류를 위해 BERT 미세 조정하기다중 레이블 분류를 위해 PyTorch를 사용하여 BERT를 미세 조정하는 방법Abhishek Kumar MishraOpen In Colab
요약을 위해 T5 미세 조정하기요약을 위해 PyTorch로 T5를 미세 조정하고 WandB로 실험을 추적하는 방법Abhishek Kumar MishraOpen In Colab
동적 패딩/버켓팅으로 Transformers 미세 조정 속도 높이기동적 패딩/버켓팅을 사용하여 미세 조정 속도를 2배로 높이는 방법Michael BenestyOpen In Colab
마스킹된 언어 모델링을 위해 Reformer 사전훈련하기양방향 셀프 어텐션 레이어를 이용해서 Reformer 모델을 훈련하는 방법Patrick von PlatenOpen In Colab
Sci-BERT 확장 및 미세 조정하기CORD 데이터 세트로 AllenAI에서 사전훈련된 SciBERT 모델의 어휘를 늘리고 파이프라인을 구축하는 방법Tanmay ThakurOpen In Colab
요약을 위해 Trainer API로 BlenderBotSmall 미세 조정하기요약을 위해 Trainer API를 사용하여 사용자 지정 데이터 세트로 BlenderBotSmall 미세 조정하기Tanmay ThakurOpen In Colab
통합 기울기(Integrated Gradient)를 이용하여 Electra 미세 조정하고 해석하기감정 분석을 위해 Electra를 미세 조정하고 Captum 통합 기울기로 예측을 해석하는 방법Eliza SzczechlaOpen In Colab
Trainer 클래스로 비영어권 GPT-2 모델 미세 조정하기Trainer 클래스로 비영어권 GPT-2 모델을 미세 조정하는 방법Philipp SchmidOpen In Colab
다중 라벨 분류 작업을 위해 DistilBERT 모델 미세 조정하기다중 라벨 분류 작업을 위해 DistilBERT 모델을 미세 조정하는 방법Dhaval TaunkOpen In Colab
문장쌍 분류를 위해 ALBERT 미세 조정하기문장쌍 분류 작업을 위해 ALBERT 모델 또는 다른 BERT 기반 모델을 미세 조정하는 방법Nadir El ManouziOpen In Colab
감정 분석을 위해 Roberta 미세 조정하기감정 분석을 위해 Roberta 모델을 미세 조정하는 방법Dhaval TaunkOpen In Colab
질문 생성 모델 평가하기seq2seq 트랜스포머 모델이 생성한 질문과 이에 대한 답변이 얼마나 정확한가요?Pascal ZolekoOpen In Colab
DistilBERT와 Tensorflow로 텍스트 분류하기텍스트 분류를 위해 TensorFlow로 DistilBERT를 미세 조정하는 방법Peter BayerleOpen In Colab
CNN/Dailail 요약을 위해 인코더-디코더 모델에 BERT 활용하기CNN/Dailail 요약을 위해 google-bert/bert-base-uncased 체크포인트를 활용하여 EncoderDecoderModel을 워밍업하는 방법Patrick von PlatenOpen In Colab
BBC XSum 요약을 위해 인코더-디코더 모델에 RoBERTa 활용하기BBC/XSum 요약을 위해 FacebookAI/roberta-base 체크포인트를 활용하여 공유 EncoderDecoderModel을 워밍업하는 방법Patrick von PlatenOpen In Colab
순차적 질문 답변(SQA)을 위해 TAPAS 미세 조정하기tapas-base 체크포인트를 활용하여 순차적 질문 답변(SQA) 데이터 세트로 TapasForQuestionAnswering을 미세 조정하는 방법Niels RoggeOpen In Colab
표 사실 검사(TabFact)로 TAPAS 평가하기🤗 Datasets와 🤗 Transformer 라이브러리를 함께 사용하여 tapas-base-finetuned-tabfact 체크포인트로 미세 조정된 TapasForSequenceClassification을 평가하는 방법Niels RoggeOpen In Colab
번역을 위해 mBART 미세 조정하기힌디어에서 영어로 번역하기 위해 Seq2SeqTrainer를 사용하여 mBART를 미세 조정하는 방법Vasudev GuptaOpen In Colab
FUNSD(양식 이해 데이터 세트)로 LayoutLM 미세 조정하기스캔한 문서에서 정보 추출을 위해 FUNSD 데이터 세트로 LayoutLMForTokenClassification을 미세 조정하는 방법Niels RoggeOpen In Colab
DistilGPT2 미세 조정하고 및 텍스트 생성하기DistilGPT2를 미세 조정하고 텍스트를 생성하는 방법Aakash TripathiOpen In Colab
최대 8K 토큰에서 LED 미세 조정하기긴 범위를 요약하기 위해 PubMed로 LED를 미세 조정하는 방법Patrick von PlatenOpen In Colab
Arxiv로 LED 평가하기긴 범위 요약에 대해 LED를 효과적으로 평가하는 방법Patrick von PlatenOpen In Colab
RVL-CDIP(문서 이미지 분류 데이터 세트)로 LayoutLM 미세 조정하기)스캔 문서 분류를 위해 RVL-CDIP 데이터 세트로 LayoutLMForSequenceClassification을 미세 조정하는 방법Niels RoggeOpen In Colab
GPT2 조정을 통한 Wav2Vec2 CTC 디코딩언어 모델 조정을 통해 CTC 시퀀스를 디코딩하는 방법Eric LamOpen In Colab
Trainer 클래스로 두 개 언어로 요약하기 위해 BART 미세 조정하기Trainer 클래스로 두 개 언어로 요약하기 위해 BART 미세 조정하는 방법Eliza SzczechlaOpen In Colab
Trivia QA로 Big Bird 평가하기Trivia QA로 긴 문서 질문에 대한 답변에 대해 BigBird를 평가하는 방법Patrick von PlatenOpen In Colab
Wav2Vec2를 사용하여 동영상 캡션 만들기Wav2Vec으로 오디오를 텍스트로 변환하여 모든 동영상에서 YouTube 캡션 만드는 방법Niklas MuennighoffOpen In Colab
PyTorch Lightning을 사용하여 CIFAR-10으로 비전 트랜스포머 미세 조정하기HuggingFace Transformers, Datasets, PyTorch Lightning을 사용하여 CIFAR-10으로 비전 트랜스포머(ViT)를 미세 조정하는 방법Niels RoggeOpen In Colab
🤗 Trainer를 사용하여 CIFAR-10에서 비전 트랜스포머 미세 조정하기Datasets, 🤗 Trainer를 사용하여 CIFAR-10에서 비전 트랜스포머(ViT)를 미세 조정하는 방법Niels RoggeOpen In Colab
개체 입력 데이터 세트인 Open Entity로 LUKE 평가하기Open Entity 데이터 세트로 LukeForEntityClassification을 평가하는 방법Ikuya YamadaOpen In Colab
관계 추출 데이터 세트인 TACRED로 LUKE 평가하기TACRED 데이터 세트로 LukeForEntityPairClassification을 평가하는 방법Ikuya YamadaOpen In Colab
중요 NER 벤치마크인 CoNLL-2003으로 LUKE 평가하기CoNLL-2003 데이터 세트로 LukeForEntitySpanClassification를 평가하는 방법Ikuya YamadaOpen In Colab
PubMed 데이터 세트로 BigBird-Pegasus 평가하기PubMed 데이터 세트로 BigBirdPegasusForConditionalGeneration를 평가하는 방법Vasudev GuptaOpen In Colab
Wav2Vec2를 사용해서 음성 감정 분류하기감정 분류를 위해 사전훈련된 Wav2Vec2 모델을 MEGA 데이터 세트에 활용하는 방법Mehrdad FarahaniOpen In Colab
DETR로 이미지에서 객체 탐지하기훈련된 DetrForObjectDetection 모델을 사용하여 이미지에서 객체를 탐지하고 어텐션을 시각화하는 방법Niels RoggeOpen In Colab
사용자 지정 객체 탐지 데이터 세트로 DETR 미세 조정하기사용자 지정 객체 탐지 데이터 세트로 DetrForObjectDetection을 미세 조정하는 방법Niels RoggeOpen In Colab
개체명 인식을 위해 T5 미세 조정하기개체명 인식 작업을 위해 T5를 미세 조정하는 방법Ogundepo OdunayoOpen In Colab