generated at
2024-04-12

Scrapboxを見る時間があるなら本を読め


今日の相場
小幅な値動き。決算シーズン
大局観
ドル円はもっと上がるか?
機関投資家は売っている?買っている?
木曜日に発表?
大きく上がった/下がった銘柄は?
年初来高値/安値
ANYCOLOR -4.29%
さくらインターネット上がってる
そんなにうまくいくだろうか?

今日の創作の進捗:なし

TODO
✅D払いで買う
D払い残高を住信SBIネット銀行からチャージできなくて不便
Air Walletを使えば活用できるけどめんどくさい
kyash使えな買った

タコス作りたい



> @kahirosuke: 初年度の年収20万だったよ。
> 確定申告の時、税務署の人に真顔で「どうやって生きてるんです?」
> って言われたよ。
中間層の壊滅が進行してるので、こういう方たちが支えている業界の未来は構造的に暗いよなー。MAPPAとか京アニのように雇用する会社は生き残るだろうが、即戦力を市場から引っ張る企業は単価を上げざるを得ないだろう




oobabooga/text-generation-webuiで試せないかな?
Claude 3 Opus現時点ではtext-generation-webuiでCommand R+モデルを直接使うのは難しいようです。主な理由は以下の通りです。
Command RアーキテクチャはLLaMAベースのモデルとは異なるため、標準のllama.cppローダーではサポートされていません。oobabooga/text-generation-webuiの開発ブランチでは最近Command R v01のサポートが追加されましたが、まだ安定して動作しない問題があるようです。
ただ、llama.cppの最新版ではCommand R+のサポートが追加されたばかりなので、近いうちにtext-generation-webuiでも安定して使えるようになるかもしれません。
Command R+のexl2量子化版をTransformersライブラリ経由で読み込もうとすると、tokenizer設定の競合でエラーが出ます。gibberishな出力しかできない問題も報告されています。
メモリ使用量の面でも、text-generation-webuiではCommand R+ 5.0bpw量子化版で9,000トークン程度のコンテキストしか使えないという指摘があります。
現状、Command RやR+を使うにはollamaやexllamav2などの専用のインターフェイスを使うのがよさそうです。

13:49 気持ちが悪くなってきた。お腹が減っている?


共同親権が話題になっている。LLMと会話すると両方からの問題点が議論できて有益だ
ただし、これを現実と結びつける必要がある。これが難しい
裁判所が適切な判断ができないという指摘があるが、その裁判所が今の自分だ。賛成するべきか?反対するべきか?

gpt-4-turbo-2024-04-09がChatGPTに追加された模様