Avatar

モロホスト厨

@yp3klknl

垢作成当初yp3klknlという名前だったがAI開発の利便性の為、 普段使用している垢と同じ名前に変更

https://linksta.cc/@molohostchu

2025年06月からヤジュッターを利用しています

つぶやき

オープンソースの無検閲LLMないすか?
脱獄は結構ありあましたが英語だけ無検閲になってますねクォレは…
元から無検閲の奴ないすか?
クラウドだとVeniceAIが元から無検閲のLLMですが…
0 0 1
IDhostingってデンマークだから"リアルな"非実在ロリショタ画像いけるんですかね…(日本でも合法だがほとんどの国では違法)
1 0 0
@Meiner への返信
防弾なのに国内非防弾のconohaVPSよりコスパええやん!
でもprivexよりは防弾性能低いんですかね…アメリカ法だし…
オランダやスウェーデンよりは厳しい?のかなぁ
0 0 0
@PYU224 への返信
おお、クッソコスパいいじゃないか…で防弾性能は?
0 0 1
@deryu への返信
rosike-gomi←確実に荒らしでシャドバンされた
ceo_←荒らしの可能性あり、rosike-gomiと同一人物の可能性がある
「見つける」だと出てこなかったので多分シャドバンされた?
1 0 0
@matsumura_saho への返信
あ、おい待てい
昨日攻撃的な書き込みして荒らしてた奴のIDはrosike-gomi(ツイートが消えている、プロフィールも削除)
こいつのIDはceo_(プロフィールが表示されないが、俺が最初に見たときもアクセスできなかったのでヤジュヤジュ動画の設定によるバグかもしれない)

ただし文体が似ているので同一人物の可能性が高い
調べる必要がありますねクォレは
1 0 1
@deryu への返信
ちょっと関係あると思って投稿してしましました…(グレーという意味で)
すみません…当職無能 頭唐澤
0 0 1
@deryu への返信
つまり…Winny事件は奇跡もしくは違法性がかなり低いと…
0 0 1
@PYU224 への返信
CloudFlare側で開けてるかもしれないですねぇ…
他のcloudflare使用サイトである
2ch.sc・5ch・あにまん・pixiv・X
も開いてたので…
0 0 1
@PYU224
PYU先生
nmap 810video.com
で野獣動画2ndwpポートスキャンしましたが
PORT STATE SERVICE
80/tcp open http
443/tcp open https
8080/tcp open http-proxy
8443/tcp open https-alt
とのこと
http-proxyとhttps-altってなんのために開けてるんですか?
0 0 1
@morokan への返信
ホストOSでノーログVPNを通し、それを通した状態の接続で
NATを仮想化した仮想OSで自宅鯖やるというのはどうでしょうか
数少ない仮想OSの脆弱性をつかれなければ大丈夫です
0 0 1
@PYU224 への返信
Xeon E5-2699はHT対応なんですけど何でHTしないんですかね…
これも何か理由あるのかなぁ…

あとGPUが1996年じゃないか…グラフィック性能も省電力性能もGPUよりCPUのが上じゃないか…
しかもGeFore256より前だからプログラマブルシェーダー(自由にプログラムできるシェーダー)もないからGPGPUやりにくいですね…
1 0 0
@PYU224 への返信
@morokan氏が調べた方は多分
外部から調べて推測するものなので結構ガバがありますねぇ!
実際に詐欺の可能性もあるが…
1 0 1
@PYU224 への返信
防弾鯖は詐欺とか多いと聞きましたがどうなんですかね…
1 0 1
@PYU224 への返信
RAM6GB,CPU3コア→RAM8GB,CPU4コア
RAM2GB増えてCPU1コア増えましたね
スレ数は8ですか?、あとハイパースレッディングは有効なんですかね…
GPUついてますね、クォレで動画爆速エンコードできますねぇ!
ん?、Cirrus Logic GD 5446?
調べてみましたがwin95時代くらいですねぇ…古スギィ!
なんで90年代のGPUがあるんですかね…
0 0 1
これ教えてくれる人居ないんですけど…こ↑こ↓にわかる人居ない?
AI拓也の為に居たら教えてくれよな~頼むよ~
そもそもいるのか?
(Qiitaとかzennで見てますけどあんまわから)ないです
あと東大生の団体?が海外の技術者の解説動画を翻訳した動画(許可はとっている)を見てます
https://youtube.com/@3Blue1BrownJapan
Avatar
モロホスト厨 @yp3klknl · 5日前

ローカルLLMを事前学習で1から開発してるんですけど
LLMのハイパーパラメータの調整についての認識で以下の通りで合ってるでしょうか?
(ニューラルネットワークのTransformer使ってます、ちなみに現代のほとんどのLLMはTransformerでできてます…)

埋め込み次元を増やすと 単語の意味を様々な観点で認識できる=単語の意味を細かく考慮できる=単語の意味がより正確になる
Attentionの隠れ次元を増やすと 処理できる文脈の情報を細分化できる=考慮できる文脈の情報を細分化できる
Attentionのヘッド数(num_attention_heads)を増やすと 同時に処理できる文脈の情報が増える=考慮できる文脈の情報を多角化できる
レイヤー数を増やすと より深く考えれるようになる

情報源少ないしこれもうわかんねぇな
パーン☆ってなりましたね(自分の)頭が

0 0 1
@PYU224 への返信
そのCEO野獣動画2nd知ってるんですかね…
1 0 1
ローカルLLMを事前学習で1から開発してるんですけど
LLMのハイパーパラメータの調整についての認識で以下の通りで合ってるでしょうか?
(ニューラルネットワークのTransformer使ってます、ちなみに現代のほとんどのLLMはTransformerでできてます…)

埋め込み次元を増やすと 単語の意味を様々な観点で認識できる=単語の意味を細かく考慮できる=単語の意味がより正確になる
Attentionの隠れ次元を増やすと 処理できる文脈の情報を細分化できる=考慮できる文脈の情報を細分化できる
Attentionのヘッド数(num_attention_heads)を増やすと 同時に処理できる文脈の情報が増える=考慮できる文脈の情報を多角化できる
レイヤー数を増やすと より深く考えれるようになる

情報源少ないしこれもうわかんねぇな
パーン☆ってなりましたね(自分の)頭が
1 0 0
PYU先生、野獣動画2ndに
「7/16の0時にこのインスタンスを別のホスティング会社のVPSに移転予定です。」
と書いてありますが何故移転するのしょうか? 規約違反?それとも性能不足?
0 0 1