128GB超メモリMac専用の巨大LLMエンジン「ds4」はローカル推論の常識をどう書き換えるのか。
284BのDeepSeek V4 FlashをM4 Max 128GB MacBook Proの自作AIに組み込んでみた(CloseBox)キャシャーンがやらねば誰がやる的に、自分にターゲティングされたソフトが公開されてしまいました。
Redisの作者であるSalvatore Sanfilippo(antirez)が、5月初旬にGitHubへひっそりと新しいリポジトリを公開しました。名前は『ds4』。DeepSeek V4 Flash専用のローカル推論エンジンです。
これの動作条件が「128GB以上のメモリを積んだApple Silicon Mac」なのですよ。これはやらねばの娘でしょう。
C言語で書かれた小さなコードベース、Metal専用、依存ライブラリも極小。READMEを読み始めて10秒で気づくのは、これは「もうひとつのllama.cpp」ではないという宣言で始まっている、ということです。
This project takes a deliberately narrow bet: one model at a time, official-vector validation, long-context tests, and enough agent integration to know if it really works.
― README より
汎用GGUFローダーではない、ラッパーでもない、フレームワークでもない。DeepSeek V4 Flash というたった1つのモデルを、推論エンジン・GGUFファイル・エージェント連携の3つすべてで「end-to-end で完成形に近づける」。これがds4の出発点です。
128GB超メモリMac専用の巨大LLMエンジン「ds4」はローカル推論の常識をどう書き換えるのか。284BのDeepSeek V4 FlashをM4 Max 128GB MacBook Proの自作AIに組み込んでみた(CloseBox) | テクノエッジ TechnoEdgeRedisの作者であるSalvatoreSanfilippo(antirez)が、5月初旬にGitHubへひっそりと新しいリポジトリを公開しました。名前は『ds4』。DeepSeekV4Flash専用のローカル推論エンジンです。www.techno-edge.net
たぶんイパネマの娘⇒ヤラネバの娘というギャグ
スベってるけど気にするな…
見た目
アッポ信者が発狂すっぞ
メモリがほしい
てかAIにメモリー余り使わないように作り直させればいいじゃん
今はllama.cppのMTP正式対応待ち
日本人はAIで驚くことしかできないのに
いまはMacの方が安上がりじゃね?
セレロンにメモリ4GB
HDD500GBだよ
どのテック企業もしてるし、中国はより危険
単体で80万近くになってた
単純にWindowsより出来ないこと多いだろ、NVIDIA絡みだと尚更な
例えば何?
なぜなら、特定のモデルとハードウェアにリソースを集中させる極端な最適化こそが、巨大なクラウド企業の独占を打ち破る唯一の鍵となる。汎用性を捨ててMetal専用の極小コードに絞り込み、依存関係を削ぎ落とすことで、メモリ帯域の限界を突破し、手元のデバイスをサーバー級の推論機へと変貌させる。この設計思想には、肥大化した既存のフレームワークを無力化し、計算の主権を再び個人の手に取り戻そうとする、計算機科学の権威による意図的な包囲網が隠されている。

コメント