なんJLLM部 ★3最終更新 2023/09/15 04:041.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったZMVj5!extend::vvvvv:1000:512!extend::vvvvv:1000:512!extend::vvvvv:1000:512AIに色々なことをしゃべってもらうんやでどう転んでもローカルで動かせる今の世代はオバカor英語なのでそこは期待しすぎんといてな自薦・他薦のモデルやツールは>>2以降前スレ なんJLLM部 ★2https://talk.jp/boards/liveuranus/16856130142023/07/10 17:41:5939コメント欄へ移動すべて|最新の50件2.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったZMVj5りんな系日本語で学習されてて3060でも設定次第で動く、オバカではあるけど現時点でもそこそこ楽しめるクオリティはあるhttps://huggingface.co/rinna/japanese-gpt-neox-3.6bhttps://huggingface.co/rinna/japanese-gpt-neox-3.6b-instruction-sfthttps://huggingface.co/rinna/japanese-gpt-neox-3.6b-instruction-sft-v2https://huggingface.co/rinna/japanese-gpt-neox-3.6b-instruction-ppoこっちは前の世代のりんな 前スレの最初のほうでLoRA学習成功したニキがいたっぽいhttps://huggingface.co/rinna/japanese-gpt2-mediumhttps://huggingface.co/rinna/japanese-gpt2-small2023/07/10 17:42:443.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったZMVj5OpenCALM系サイバーエージェントがやってるってことでいじった報告や動かした報告がネットに多い気がするhttps://huggingface.co/cyberagent/open-calm-7bhttps://huggingface.co/cyberagent/open-calm-3b8bit版?https://huggingface.co/kyo-takano/open-calm-7b-8bit2023/07/10 17:43:004.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったZMVj5https://github.com/LostRuins/koboldcpp/releasesこちらから最新版のkoboldcpp.exeをダウンロード。少し下にスクロールしてAssetsと書いてあるところにある。GGML版というCPUで動かす用に変換されたモデルをたった1ファイルというシンプル構造で動かせるニクい奴Kobold.cppで小説っぽいのを作るhttps://w.atwiki.jp/localmlhub/pages/19.htmlKobold.cppでAIとチャットしてみるhttps://w.atwiki.jp/localmlhub/pages/20.htmlWikiも参照のこと2023/07/10 17:45:235.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったZMVj5WebUIりんな動かすだけとかGGML版使うだけなら要らないけど、英語圏の色々なモデルをGPUで試しまくるなら一番有名https://github.com/oobabooga/text-generation-webui2023/07/10 17:45:576.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったZMVj5https://i.imgur.com/DAsUTKV.pngりんなと会話してみた例(sft版)2023/07/10 17:46:107.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったZMVj5https://imgur.com/eBzycUe.jpgりんなと会話したみた例(ppo版)rinna_dialog (旧:dialog_v3)https://github.com/AlgosErgo/rinna_dialogりんなを動かしたいときは、スレ民の作ったこのツールを使うのが一番はやいでモデルのダウンロードまでまとめてやってくれるただし3060 12GBみたいに12GB以上のVRAMを積んだNVIDIAのGPUはほぼ必須な2023/07/10 17:47:318.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったZMVj5AssistantSeikaってアプリと連携することで出力結果をボイスロイドとかVOICEVOXとか色々なのに読ませることもできるでどう連携するかの説明とかも>>7の中に入っているで2023/07/10 17:48:069.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったZMVj5AssistantSeika入手先【再配布厳禁!!】やでhttps://wiki.hgotoh.jp/documents/tools/assistantseika/assistantseika-001a2023/07/10 17:48:2910.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったZMVj5↓5ch時代のスレの最後に出てきたニキのツールやでKoboldCppを日本語で利用するツール作ったでhttps://github.com/Zuntan03/LlmTranslator翻訳もローカルなんで何を書いてもBanの心配なしやドキュメントは整備中やがここのニキならイケるやろうし共有するでGitとPython 3.10.6にパス通したWin & Geforce PCで↓のbatを右クリ保存で実行やhttps://github.com/Zuntan03/LlmTranslator/raw/main/LlmTranslator/SetupLlmTranslator.bat感想や不具合報告や https://aetherroom.club/ の投稿を共有してもらえたら嬉しい2023/07/10 17:49:3011.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったZMVj5りんなとか日本語モデルはまだまだ数に限りがあるから最新のを使えとしか言いようがないけど、英語モデルはスペックによって色々オススメに差があるで65B版とかを使えば賢くなるけど、そのぶん生成速度は遅くなるしメモリも64GB積んでギリギリや13B版とかを使えばメモリ16GBのマシンでも動いてなかなか速いけど、やっぱバカなところもあるちなみにこれはGGML版(kobold.cpp使用)の話で、GPUで動かしたいなら多分33B版を動かせる奴もほとんどおらんやろな2023/07/10 17:52:5512.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったZMVj5Wikiにも書いてあるけどたぶんairoborosとかwizardlmあたりが英語版モデルの無難な選択や2023/07/10 17:54:1413.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったZMVj5https://w.atwiki.jp/localmlhub/pages/1.htmlWikiのトップページはここやで2023/07/10 17:54:3414.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったZMVj5ChatGPTとかでやりたい人はネットサービス板とかオナテク板にスレがあったけどTalk時代にもそのスレが続くかはまだわからん2023/07/10 17:56:2615.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったZMVj5あとなんかあったっけとりあえず>>20まで伸ばすで2023/07/10 17:56:3816.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったZMVj5kobold.cppのMemory、Author's Note、World Infoの説明やMemoryメモリは AI に送信される内容の先頭に挿入されるため、[送信] をクリックするたびに AI が最初に目にするものになります。ただし、これはアクティブに生成されている新しいテキストから最も遠い場所でもあるため、現在のシーンへの影響はあまり明らかではない可能性があります。Author's Note著者のメモは新しいテキストの数行上に挿入されるため、新しく生成された散文と現在のシーンに大きな影響を与えます。「The Author's Note」は脚本の舞台演出に似ていますが、俳優や監督に指示を与えるのではなく、AI に書き方を指示することになります。World InfoWorld Info では、より広い世界の詳細を具体化できます。このエンジンは、実際のストーリー テキストでキーワードが言及されている場合にのみ World Info エントリを挿入することで、コンテキスト内のトークンを節約します。ただし、これらは上部、メモリーの後、実際のストーリーテキストの前に挿入されるため、AI が生成するものに適度な影響を与えます。2023/07/10 17:57:3917.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったZMVj5要するにMemoryに基本的なことを書いて、毎回ちゃんとチェックして欲しい大事なとこはAuthor's Noteに書いて(心理描写たくさん書いてね、とか)、World Infoにはキャラ設定とか書くとええんやろな2023/07/10 17:58:3718.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったZMVj5GGML版のモデルは4bit版とか5bit版くらいがバランスええであと↓らしいでKのついたものが「k-quantメソッド」なる新方式による量子化モデル。Kのない4bit/5bit量子化(q4_0, q4_1, q5_0, q5_1)は旧方式のレガシーなので基本的に選ばない。とあるから、Q4_K_Mくらいがバランスええんちゃうかと思うで2023/07/10 17:59:5119.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったZMVj5ローカルのモデルはこっちが心配になるくらい規制とかなんもないのが魅力やで2023/07/10 18:00:2320.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったZMVj5もちろんBANとかもないしなみんなもいつか来る日本語大規模フリー無規制モデルの日を夢見て頑張るんやでということで>>20に到達や2023/07/10 18:00:5221.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったmbgr65ch書けなくなったから、こっちにかくairoboros-33b-gpt4-1.4-superhot-8k.ggmlv3.q5_K_M 動いたぞーkoboldを最新にしてコンテキストサイズを最大の8000以上にしたら動いたわ2023/07/10 18:52:4622.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったmbgr6初めてWinfo使ったが、反映されない。55歳の男は反映されたのに、11歳の少女の年齢が反映されないモデルによるのか?2023/07/10 18:55:0323.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったmbgr6すまん自決keyミスってたわ。。。2023/07/10 19:08:5024.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったZMVj5書き込めるかな2023/07/10 19:39:4725.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったZMVj5「タイムスタンプが~」とか出たら専ブラ再起動するといけるわ2023/07/10 20:23:1726.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったqL8HKKoboldccp、GPUを優先に使う設定がいつの間にかできてたんやな起動と動作が速くなるわnvidia持ってるニキはランチャー画面のPresets:で Use CuBLAS を選ぶんやでGPU Layers:は各自で調整やGPUが12GBのワイは32にしてるで2023/07/10 22:40:1027.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったZMVj5つーかいきなり随分UI変わったな!2023/07/10 22:58:1928.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったA3alcAiroborosの説明を見ると、推奨プロンプトがあるけど、チャットする前に毎回入れた方がいいのかな?2023/07/12 12:49:1329.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったMnfRMどーかなああんま意識しなくても成立している気がするけどWrite a long lewd story about~Write a long lewd dialogue about~のどっちかでいつもやってるわ2023/07/12 12:52:2930.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったA3alcAiroboros 指示モードには強いけどストーリーモードは少し弱いなストーリーモード使ってる人、適したモデルでいいのありますか?2023/07/12 18:43:5731.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったPM4Jzストーリーモードは使わず指示モードでイントロだけ書かせれば後はストーリーモードと同じ様にできるね本文直接修正でやるのがかなりいい感じ2023/07/13 15:24:3232.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったr5ZKlInstructモードのこと?ストーリーモードと同じようにやればいいんかな2023/07/13 15:31:2133.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったC53SJプロット書いて上記の内容で小説書いてくれと指示すればいい2023/07/13 17:02:0734.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったhvXaCoobaboogaで、リンナ動かしたら、関係ない返事ばっかするんだけど、何か設定間違ってる?2023/07/14 23:49:0235.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった4C5oiりんなは区切り文字が特殊だからただ>>7の人が消しちゃったんかな? どうしたもんかな2023/07/15 00:04:5036.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった45QhEこっちでやるか?2023/08/08 20:20:4637.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったX7W45書き込みテストTheBloke/Deepnight-Llama-2-70B-Inst-GGMLこれは、日本語普通に使えるぞ。小説書かせても破綻少なく整った文章書ける。そのかわり規制あるけど、フィクションだと言えば書いてくれる緩さだw元々ラマ2は日本語そこそこできたが、これはマイクロソフトとかのトレーニング使ってるらしく、抜き出ている感じがする2023/08/08 22:03:2838.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったZWS5UJanitor aiをkobold aiで動かしたくて初めてこれ系をいろいろ触ってるんだがAPI keyがわからなくて詰んだ。remort走らせてURLが複数でるまでひたすら待つしかないのかこれ。スレ違いならすまん。2023/08/21 13:17:1139.今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だったJ334Dttps://github.com/fpdmt/rinna_dialog7>>の人のかな?ちなみにAssistantSeika作者とvoxsay作者は同一人物。2023/09/15 04:04:58
【MX】妖怪学校の先生はじめました!→嘆きの亡霊は引退したい(終)→休→歴史に残る悪女になるぞ(終)→百姓貴族(再)(終)→からくりサーカス(再)なんでも実況J4461.22024/12/25 01:01:23
【MX】鴨乃橋ロンの禁断推理 2nd Season(終)→来世は他人がいい(終)→最凶の支援職【話術士】である俺は世界最強クランを従える(終)→ありふれた職業で世界最強 sedson3→トリリオンゲーム→殿と犬(再)→ゴルカム(再)なんでも実況J5732.82024/12/23 23:56:10
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
どう転んでもローカルで動かせる今の世代はオバカor英語なので
そこは期待しすぎんといてな
自薦・他薦のモデルやツールは>>2以降
前スレ なんJLLM部 ★2
https://talk.jp/boards/liveuranus/1685613014
日本語で学習されてて3060でも設定次第で動く、オバカではあるけど現時点でも
そこそこ楽しめるクオリティはある
https://huggingface.co/rinna/japanese-gpt-neox-3.6b
https://huggingface.co/rinna/japanese-gpt-neox-3.6b-instruction-sft
https://huggingface.co/rinna/japanese-gpt-neox-3.6b-instruction-sft-v2
https://huggingface.co/rinna/japanese-gpt-neox-3.6b-instruction-ppo
こっちは前の世代のりんな 前スレの最初のほうでLoRA学習成功したニキがいたっぽい
https://huggingface.co/rinna/japanese-gpt2-medium
https://huggingface.co/rinna/japanese-gpt2-small
サイバーエージェントがやってるってことでいじった報告や
動かした報告がネットに多い気がする
https://huggingface.co/cyberagent/open-calm-7b
https://huggingface.co/cyberagent/open-calm-3b
8bit版?
https://huggingface.co/kyo-takano/open-calm-7b-8bit
こちらから最新版のkoboldcpp.exeをダウンロード。
少し下にスクロールしてAssetsと書いてあるところにある。
GGML版というCPUで動かす用に変換されたモデルを
たった1ファイルというシンプル構造で動かせるニクい奴
Kobold.cppで小説っぽいのを作る
https://w.atwiki.jp/localmlhub/pages/19.html
Kobold.cppでAIとチャットしてみる
https://w.atwiki.jp/localmlhub/pages/20.html
Wikiも参照のこと
りんな動かすだけとかGGML版使うだけなら要らないけど、
英語圏の色々なモデルをGPUで試しまくるなら一番有名
https://github.com/oobabooga/text-generation-webui
りんなと会話してみた例(sft版)
りんなと会話したみた例(ppo版)
rinna_dialog (旧:dialog_v3)
https://github.com/AlgosErgo/rinna_dialog
りんなを動かしたいときは、スレ民の作ったこのツールを使うのが一番はやいで
モデルのダウンロードまでまとめてやってくれる
ただし3060 12GBみたいに12GB以上のVRAMを積んだNVIDIAのGPUはほぼ必須な
出力結果をボイスロイドとかVOICEVOXとか色々なのに
読ませることもできるで
どう連携するかの説明とかも>>7の中に入っているで
【再配布厳禁!!】やで
https://wiki.hgotoh.jp/documents/tools/assistantseika/assistantseika-001a
KoboldCppを日本語で利用するツール作ったで
https://github.com/Zuntan03/LlmTranslator
翻訳もローカルなんで何を書いてもBanの心配なしや
ドキュメントは整備中やがここのニキならイケるやろうし共有するで
GitとPython 3.10.6にパス通したWin & Geforce PCで↓のbatを右クリ保存で実行や
https://github.com/Zuntan03/LlmTranslator/raw/main/LlmTranslator/SetupLlmTranslator.bat
感想や不具合報告や https://aetherroom.club/ の投稿を共有してもらえたら嬉しい
言いようがないけど、英語モデルはスペックによって色々オススメに差があるで
65B版とかを使えば賢くなるけど、そのぶん生成速度は遅くなるしメモリも64GB積んでギリギリや
13B版とかを使えばメモリ16GBのマシンでも動いてなかなか速いけど、やっぱバカなところもある
ちなみにこれはGGML版(kobold.cpp使用)の話で、GPUで動かしたいなら多分33B版を動かせる奴も
ほとんどおらんやろな
英語版モデルの無難な選択や
Wikiのトップページはここやで
Talk時代にもそのスレが続くかはまだわからん
とりあえず>>20まで伸ばすで
Memory
メモリは AI に送信される内容の先頭に挿入されるため、[送信] をクリックするたびに AI が最初に目にするものになります。
ただし、これはアクティブに生成されている新しいテキストから最も遠い場所でもあるため、現在のシーンへの影響はあまり明らかではない可能性があります。
Author's Note
著者のメモは新しいテキストの数行上に挿入されるため、新しく生成された散文と現在のシーンに大きな影響を与えます。
「The Author's Note」は脚本の舞台演出に似ていますが、俳優や監督に指示を与えるのではなく、AI に書き方を指示することになります。
World Info
World Info では、より広い世界の詳細を具体化できます。このエンジンは、実際のストーリー テキストでキーワードが言及されている場合にのみ World Info エントリを挿入することで、コンテキスト内のトークンを節約します。
ただし、これらは上部、メモリーの後、実際のストーリーテキストの前に挿入されるため、AI が生成するものに適度な影響を与えます。
Author's Noteに書いて(心理描写たくさん書いてね、とか)、World Infoにはキャラ設定とか
書くとええんやろな
あと↓らしいで
Kのついたものが「k-quantメソッド」なる新方式による量子化モデル。
Kのない4bit/5bit量子化(q4_0, q4_1, q5_0, q5_1)は旧方式のレガシーなので基本的に選ばない。
とあるから、Q4_K_Mくらいがバランスええんちゃうかと思うで
規制とかなんもないのが魅力やで
みんなもいつか来る日本語大規模フリー無規制モデルの日を夢見て頑張るんやで
ということで>>20に到達や
airoboros-33b-gpt4-1.4-superhot-8k.ggmlv3.q5_K_M 動いたぞー
koboldを最新にしてコンテキストサイズを最大の8000以上にしたら動いたわ
55歳の男は反映されたのに、11歳の少女の年齢が反映されない
モデルによるのか?
keyミスってたわ。。。
起動と動作が速くなるわ
nvidia持ってるニキはランチャー画面のPresets:で Use CuBLAS を選ぶんやで
GPU Layers:は各自で調整や
GPUが12GBのワイは32にしてるで
チャットする前に毎回入れた方がいいのかな?
あんま意識しなくても成立している気がするけど
Write a long lewd story about~
Write a long lewd dialogue about~
のどっちかでいつもやってるわ
ストーリーモード使ってる人、適したモデルでいいのありますか?
書かせれば後はストーリーモードと同じ様にできるね
本文直接修正でやるのがかなりいい感じ
ストーリーモードと同じようにやればいいんかな
何か設定間違ってる?
ただ>>7の人が消しちゃったんかな? どうしたもんかな
TheBloke/Deepnight-Llama-2-70B-Inst-GGML
これは、日本語普通に使えるぞ。
小説書かせても破綻少なく整った文章書ける。そのかわり規制あるけど、フィクションだと言えば書いてくれる緩さだw
元々ラマ2は日本語そこそこできたが、これはマイクロソフトとかのトレーニング使ってるらしく、抜き出ている感じがする
スレ違いならすまん。
7>>の人のかな?
ちなみにAssistantSeika作者とvoxsay作者は同一人物。