Transformers documentation
Community
You are viewing v4.56.2 version.
A newer version
v4.57.1 is available.
Community
このページは、コミュニティによって開発された🤗 Transformersに関するリソースをまとめたものです。
Community resources:
| リソース | 説明 | 作者 |
|---|---|---|
| Hugging Face Transformers Glossary Flashcards | Transformers Docs Glossaryに基づいたフラッシュカードセットです。このセットは、長期の知識定着を特に考慮して設計されたオープンソースのクロスプラットフォームアプリであるAnkiを使用して簡単に学習/復習できる形式になっています。フラッシュカードの使用方法に関する紹介ビデオはこちらをご覧ください。 | Darigov Research |
Community notebooks:
| ノートブック | 説明 | 著者 | |
|---|---|---|---|
| 事前学習済みのTransformerを微調整して歌詞を生成 | GPT-2モデルを微調整してお気に入りのアーティストのスタイルで歌詞を生成する方法 | Aleksey Korshuk | |
| Tensorflow 2でT5をトレーニング | Tensorflow 2を使用して任意のタスクに対してT5をトレーニングする方法。このノートブックはTensorflow 2を使用してSQUADで実装された質問と回答タスクを示しています。 | Muhammad Harris | |
| TPUでT5をトレーニング | TransformersとNlpを使用してSQUADでT5をトレーニングする方法 | Suraj Patil | |
| 分類と多肢選択のためにT5を微調整 | PyTorch Lightningを使用してテキスト対テキスト形式でT5を分類と多肢選択タスクに微調整する方法 | Suraj Patil | |
| 新しいデータセットと言語でDialoGPTを微調整 | DialoGPTモデルを新しいデータセットでオープンダイアログ会話用の微調整する方法 | Nathan Cooper | |
| Reformerを使用した長いシーケンスモデリング | Reformerを使用して500,000トークンまでのシーケンスをトレーニングする方法 | Patrick von Platen | |
| 要約のためにBARTを微調整 | Blurrを使用して要約のためにBARTを微調整する方法 | Wayde Gilliam | |
| 事前学習済みのTransformerを微調整して誰かのツイートを生成 | GPT-2モデルを微調整してお気に入りのTwitterアカウントのスタイルでツイートを生成する方法 | Boris Dayma | |
| 🤗 Hugging FaceモデルをWeights & Biasesで最適化 | Hugging FaceとWeights & Biasesの統合を示す完全なチュートリアル | Boris Dayma | |
| Longformerの事前学習 | 既存の事前学習済みモデルの「長い」バージョンを構築する方法 | Iz Beltagy | |
| QAタスクのためにLongformerを微調整 | QAタスクのためにLongformerモデルを微調整する方法 | Suraj Patil | |
| 🤗nlpを使用したモデルの評価 | nlpを使用してTriviaQAでLongformerを評価する方法 | Patrick von Platen | |
| 感情スパン抽出のためにT5を微調整 | PyTorch Lightningを使用して感情スパン抽出のためにT5を微調整する方法 | Lorenzo Ampil | |
| DistilBertをマルチクラス分類にファインチューニング | PyTorchを使用してDistilBertをマルチクラス分類にファインチューニングする方法 | Abhishek Kumar Mishra | |
| BERTをマルチラベル分類にファインチューニング | PyTorchを使用してBERTをマルチラベル分類にファインチューニングする方法 | Abhishek Kumar Mishra | |
| T5を要約にファインチューニング | PyTorchを使用してT5を要約にファインチューニングし、WandBで実験をトラッキングする方法 | Abhishek Kumar Mishra | |
| ダイナミックパディング/バケッティングを使用してTransformersのファインチューニングを高速化 | ダイナミックパディング/バケッティングを使用してファインチューニングを2倍高速化する方法 | Michael Benesty | |
| マスク言語モデリングのためのReformerの事前学習 | 双方向セルフアテンションレイヤーを備えたReformerモデルのトレーニング方法 | Patrick von Platen | |
| Sci-BERTを拡張してファインチューニング | AllenAIのCORDデータセットで事前学習済みのSciBERTモデルの語彙を拡張し、パイプライン化する方法 | Tanmay Thakur | |
| Trainer APIを使用してBlenderBotSmallを要約のためにファインチューニング | カスタムデータセットでBlenderBotSmallを要約のためにファインチューニングする方法、Trainer APIを使用 | Tanmay Thakur | |
| ElectraをファインチューニングしてCaptum Integrated Gradientsで解釈 | Electraを感情分析のためにファインチューニングし、Captum Integrated Gradientsで予測を解釈する方法 | Eliza Szczechla | |
| Trainerクラスを使用して非英語のGPT-2モデルをファインチューニング | Trainerクラスを使用して非英語のGPT-2モデルをファインチューニングする方法 | Philipp Schmid | |
| DistilBERTモデルをマルチラベル分類タスクのためにファインチューニング | DistilBERTモデルをマルチラベル分類タスクのためにファインチューニングする方法 | Dhaval Taunk | |
| ALBERTを文ペア分類タスクのためにファインチューニング | ALBERTモデルまたは他のBERTベースのモデルを文ペア分類タスクのためにファインチューニングする方法 | Nadir El Manouzi | |
| RoBERTaを感情分析のためにファインチューニング | RoBERTaモデルを感情分析のためにファインチューニングする方法 | Dhaval Taunk | |
| 質問生成モデルの評価 | seq2seqトランスフォーマーモデルによって生成された質問の回答の正確さを評価する方法 | Pascal Zoleko | |
| DistilBERTとTensorflowを使用してテキストを分類 | TensorFlowでテキスト分類のためにDistilBERTをファインチューニングする方法 | Peter Bayerle | |
| CNN/Dailymailでのエンコーダーデコーダー要約にBERTを活用 | google-bert/bert-base-uncased チェックポイントを使用してCNN/Dailymailの要約のために EncoderDecoderModel をウォームスタートする方法 | Patrick von Platen | |
| BBC XSumでのエンコーダーデコーダー要約にRoBERTaを活用 | FacebookAI/roberta-base チェックポイントを使用してBBC/XSumの要約のための共有 EncoderDecoderModel をウォームスタートする方法 | Patrick von Platen | |
| TAPASをシーケンシャル質問応答(SQA)でファインチューニング | シーケンシャル質問応答(SQA)データセットで tapas-base チェックポイントを使用して TapasForQuestionAnswering をファインチューニングする方法 | Niels Rogge | |
| TabFactでTAPASを評価 | tapas-base-finetuned-tabfact チェックポイントを使用してファインチューニングされた TapasForSequenceClassification を評価する方法、🤗 datasets と 🤗 transformers ライブラリを組み合わせて使用 | Niels Rogge | |
| 翻訳のためのmBARTをファインチューニング | Seq2SeqTrainerを使用してHindiからEnglishへの翻訳のためにmBARTをファインチューニングする方法 | Vasudev Gupta | |
| FUNSD(フォーム理解データセット)でLayoutLMをファインチューニング | スキャンされたドキュメントからの情報抽出のためにFUNSDデータセットで LayoutLMForTokenClassification をファインチューニングする方法 | Niels Rogge | |
| DistilGPT2のファインチューニングとテキスト生成 | DistilGPT2のファインチューニングとテキスト生成方法 | Aakash Tripathi | |
| 最大8KトークンでのLEDのファインチューニング | ロングレンジ要約のためのpubmedでLEDをファインチューニングする方法 | Patrick von Platen | |
| ArxivでのLEDの評価 | ロングレンジ要約のためのLEDの効果的な評価方法 | Patrick von Platen | |
| RVL-CDIP(文書画像分類データセット)でのLayoutLMのファインチューニング | スキャンされた文書の分類のためのRVL-CDIPデータセットでLayoutLMForSequenceClassificationをファインチューニングする方法 | Niels Rogge | |
| Wav2Vec2 CTCデコーディングとGPT2の調整 | 言語モデルの調整を伴うCTCシーケンスのデコーディング方法 | Eric Lam | |
| Trainerクラスを使用した2言語の要約用にBARTをファインチューニング | トレーナークラスを使用して2つの言語での要約用にBARTをファインチューニングする方法 | Eliza Szczechla | |
| PubMedデータセットでBigBirdの評価 | Trivia QAの長いドキュメント質問応答でBigBirdの評価方法 | Patrick von Platen | |
| Wav2Vec2を使用してビデオの字幕を作成する | Wav2Vecでオーディオを転記して任意のビデオからYouTubeの字幕を作成する方法 | Niklas Muennighoff | |
| PyTorch Lightningを使用したCIFAR-10でのVision Transformerのファインチューニング | HuggingFace Transformers、Datasets、およびPyTorch Lightningを使用してCIFAR-10でVision Transformer(ViT)をファインチューニングする方法 | Niels Rogge | |
| 🤗 Trainerを使用したCIFAR-10でのVision Transformerのファインチューニング | HuggingFace Transformers、Datasets、および🤗 Trainerを使用してCIFAR-10でVision Transformer(ViT)をファインチューニングする方法 | Niels Rogge | |
| Open Entity、エンティティタイピングデータセットでLUKEの評価 | Open EntityデータセットでLukeForEntityClassificationの評価方法 | Ikuya Yamada | |
| TACRED、関係抽出データセットでLUKEの評価 | TACREDデータセットでLukeForEntityPairClassificationの評価方法 | Ikuya Yamada | |
| CoNLL-2003、重要なNERベンチマークでLUKEの評価 | CoNLL-2003データセットでLukeForEntitySpanClassificationの評価方法 | Ikuya Yamada | |
| PubMedデータセットでBigBird-Pegasusの評価 | PubMedデータセットでBigBirdPegasusForConditionalGenerationの評価方法 | Vasudev Gupta | |
| Wav2Vec2を使用したスピーチエモーション分類 | MEGAデータセットでの感情分類のための事前学習済みWav2Vec2モデルの利用方法 | Mehrdad Farahani | |
| DETRを使用して画像内のオブジェクトを検出する | トレーニング済みDetrForObjectDetectionモデルを使用して画像内のオブジェクトを検出し、注意を可視化する方法 | Niels Rogge | |
| カスタムオブジェクト検出データセットでDETRをファインチューニングする | カスタムオブジェクト検出データセットでDetrForObjectDetectionをファインチューニングする方法 | Niels Rogge | |
| Named Entity RecognitionのためにT5をファインチューニング | Named Entity RecognitionタスクでT5をファインチューニングする方法 | Ogundepo Odunayo |