Skip to content

Latest commit

 

History

History
55 lines (26 loc) · 2.48 KB

FAQ_ja.md

File metadata and controls

55 lines (26 loc) · 2.48 KB

FAQ

インストールと環境

transformers のバージョンは?

4.31.0 が望ましいです。

コードとチェックポイントをダウンロードしましたが、モデルをローカルにロードできません。どうすればよいでしょうか?

コードを最新のものに更新し、すべてのシャードされたチェックポイントファイルを正しくダウンロードしたかどうか確認してください。

qwen.tiktoken が見つかりません。これは何ですか?

これは tokenizer のマージファイルです。ダウンロードする必要があります。git-lfs を使わずにリポジトリを git clone しただけでは、このファイルをダウンロードできないことに注意してください。

transformers_stream_generator/tiktoken/accelerate が見つかりません。

コマンド pip install -r requirements.txt を実行してください。このファイルは https://github.com/QwenLM/Qwen-VL/blob/main/requirements.txt にあります。

デモと推論

デモはありますか?

ウェブデモは web_demo_mm.py を参照してください。詳細は README を参照してください。

Qwen-VLはストリーミングに対応していますか?

いいえ、まだサポートしていません。

世代と命令は関係ないようですが...

Qwen-VL ではなく Qwen-VL-Chat を読み込んでいないか確認してください。Qwen-VL はアライメントなしのベースモデルで、SFT/Chat モデルとは動作が異なります。

量子化はサポートされていますか?

いいえ。早急に量子化をサポートするつもりです。

長いシーケンスの処理で不満足なパフォーマンス

NTK が適用されていることを確認してください。config.jsonuse_dynamc_ntkuse_logn_attntrue に設定する必要がある(デフォルトでは true)。

Tokenizer

bos_id/eos_id/pad_id が見つかりません。

私たちのトレーニングでは、セパレータとパディングトークンとして <|endoftext|> のみを使用しています。bos_id、eos_id、pad_id は tokenizer.eod_id に設定できます。私たちの tokenizer について詳しくは、tokenizer についてのドキュメントをご覧ください。