
1 : 2025/07/27(日) 19:35:07.60 ID:udyOxyQQ0
gpu使うサービスを自分で作ったんや
これネットで配布したいんやけどどうしたらええの?
SAASにしたらサーバー代とんでもないことになるよな?
ローカル配布がええんか?
誰か教えてくれ
これネットで配布したいんやけどどうしたらええの?
SAASにしたらサーバー代とんでもないことになるよな?
ローカル配布がええんか?
誰か教えてくれ
2 : 2025/07/27(日) 19:35:28.15 ID:SlY4LZFhd
🫨←これ見える?
3 : 2025/07/27(日) 19:35:46.34 ID:udyOxyQQ0
調べたらgpuつきサーバーめっちゃ高いやん
4 : 2025/07/27(日) 19:35:53.97 ID:ravArKzy0
githubでコードだけ公開すればええやん
6 : 2025/07/27(日) 19:36:55.86 ID:udyOxyQQ0
>>4
他人に中身見られるの嫌なんや
他人に中身見られるの嫌なんや
52 : 2025/07/27(日) 20:00:27.02 ID:EAIi4oz10
>>6
なんでや
パクられるのが嫌ってこと?
なんでや
パクられるのが嫌ってこと?
5 : 2025/07/27(日) 19:36:31.61 ID:udyOxyQQ0
ローカル配布はexeにするのがめんどくさそうなんや
SaaSにしたいけど、そうするとサーバー代やばそう
SaaSにしたいけど、そうするとサーバー代やばそう
7 : 2025/07/27(日) 19:37:23.57 ID:fsCpza0L0
Webサービスを作ったのかローカルで動かすアプリケーションを作ったのか
9 : 2025/07/27(日) 19:38:38.58 ID:udyOxyQQ0
>>7
どっちもいける予定や
dockerとwslで開発しただけや
どっちもいける予定や
dockerとwslで開発しただけや
8 : 2025/07/27(日) 19:37:49.94 ID:udyOxyQQ0
どうしたらええの
世の中のGPU使うサービスはどうやって維持してるんや
世の中のGPU使うサービスはどうやって維持してるんや
10 : 2025/07/27(日) 19:38:50.47 ID:fOGcbclV0
そもそも何で配布したいんよ
12 : 2025/07/27(日) 19:39:44.14 ID:udyOxyQQ0
>>10
みんなの反応みたいんや
みんなの反応みたいんや
11 : 2025/07/27(日) 19:39:20.06 ID:udyOxyQQ0
みんなどう配布してるんや
13 : 2025/07/27(日) 19:40:12.90 ID:snGdKaUo0
chatGPTに聞けやw
16 : 2025/07/27(日) 19:40:54.01 ID:udyOxyQQ0
>>13
聞いたけど理想の答えくれないんや
聞いたけど理想の答えくれないんや
18 : 2025/07/27(日) 19:41:51.39 ID:6ucTbzpY0
>>16
お前の理想を実現する方法がないんやない?
金を出すかソースを公開するしか方法ないってことや
お前の理想を実現する方法がないんやない?
金を出すかソースを公開するしか方法ないってことや
19 : 2025/07/27(日) 19:43:01.44 ID:udyOxyQQ0
>>18
exeでローカル配布
SaaS
この二択しかない
そもそも世の中の個人開発でGPUつきのサービス公開してるやつはどう維持してるんや
exeでローカル配布
SaaS
この二択しかない
そもそも世の中の個人開発でGPUつきのサービス公開してるやつはどう維持してるんや
14 : 2025/07/27(日) 19:40:28.26 ID:udyOxyQQ0
GPUつきサーバーは値段めっちゃするよな?
15 : 2025/07/27(日) 19:40:43.04 ID:LJgMDaaF0
AWSもGPUつかうと高えぞ
17 : 2025/07/27(日) 19:41:25.92 ID:udyOxyQQ0
>>15
じゃあ世の中の個人サービスはどう維持してるんや
じゃあ世の中の個人サービスはどう維持してるんや
20 : 2025/07/27(日) 19:43:09.62 ID:LJgMDaaF0
AIかなんか使うんか?
ユーザーのローカルのGPUを使う形で公開できればええんか?
ユーザーのローカルのGPUを使う形で公開できればええんか?
21 : 2025/07/27(日) 19:44:29.12 ID:udyOxyQQ0
>>20
せやねAIつかう
だからSaaSやとサーバー代かかる
ローカル配布がええけど、それだとexe化とかハードル高そう
せやねAIつかう
だからSaaSやとサーバー代かかる
ローカル配布がええけど、それだとexe化とかハードル高そう
22 : 2025/07/27(日) 19:45:16.51 ID:udyOxyQQ0
マジでみんなどうしてるんだよ
23 : 2025/07/27(日) 19:45:32.03 ID:fOGcbclV0
Dockerイメージ配ればいいやん
26 : 2025/07/27(日) 19:46:47.02 ID:udyOxyQQ0
>>23
めんどくさいやろそれ使う側が
めんどくさいやろそれ使う側が
30 : 2025/07/27(日) 19:48:26.83 ID:LJgMDaaF0
>>26
なんでや
DockerHubに置いとけば使う側は楽勝やろ
なんでや
DockerHubに置いとけば使う側は楽勝やろ
31 : 2025/07/27(日) 19:48:50.10 ID:udyOxyQQ0
>>30
ワイは素人にも配りたいんや
ワイは素人にも配りたいんや
38 : 2025/07/27(日) 19:53:12.97 ID:LJgMDaaF0
>>31
dockerだけインストールしてもろて後はコマンド1行コピペでポートフォワードしてブラウザやろ
素人でも手順3つくらいええやろ
dockerだけインストールしてもろて後はコマンド1行コピペでポートフォワードしてブラウザやろ
素人でも手順3つくらいええやろ
45 : 2025/07/27(日) 19:57:07.16 ID:udyOxyQQ0
>>38
それで有名なやつなんかあるん?
それで有名なやつなんかあるん?
35 : 2025/07/27(日) 19:52:40.09 ID:fOGcbclV0
>>26
??起動すればいいだけやん
??起動すればいいだけやん
24 : 2025/07/27(日) 19:45:36.06 ID:59egPlBJ0
GPUインスタンスで稼働させる以外無いやん
嫌ならgithubでコード公開や
イッチの書いた程度のコードに価値無いから誰もパクらん
嫌ならgithubでコード公開や
イッチの書いた程度のコードに価値無いから誰もパクらん
28 : 2025/07/27(日) 19:47:59.12 ID:udyOxyQQ0
>>24
そのインスタンスってのは、使った時間に応じて課金されるんか?
たとえば1時間GPU使ったらその分サーバー代とられるん?
常に課金されるんやなくて、GPU稼働した時間に応じて課金されるんか
そのインスタンスってのは、使った時間に応じて課金されるんか?
たとえば1時間GPU使ったらその分サーバー代とられるん?
常に課金されるんやなくて、GPU稼働した時間に応じて課金されるんか
32 : 2025/07/27(日) 19:48:52.09 ID:59egPlBJ0
>>28
常や
常や
33 : 2025/07/27(日) 19:49:44.94 ID:udyOxyQQ0
>>32
ほならユーザーから金取らんと無理やん
世の中のGPUつきサービスどうやってんだよマジで
ほならユーザーから金取らんと無理やん
世の中のGPUつきサービスどうやってんだよマジで
36 : 2025/07/27(日) 19:53:05.70 ID:59egPlBJ0
>>33
正確になんぼやったか忘れたけど月1万とかである程度稼働できんか?
稼働も24時間やなしに夜の間8時間とかで十分やろ
正確になんぼやったか忘れたけど月1万とかである程度稼働できんか?
稼働も24時間やなしに夜の間8時間とかで十分やろ
40 : 2025/07/27(日) 19:55:17.90 ID:udyOxyQQ0
>>36
でもそれユーザー増えたらすぐ終わりやん
10人ぐらい同時に使ってたらすぐパンクしないか?
でもそれユーザー増えたらすぐ終わりやん
10人ぐらい同時に使ってたらすぐパンクしないか?
44 : 2025/07/27(日) 19:56:51.34 ID:59egPlBJ0
>>40
そんなもん適当にキューイングしながら分散せーや
そんなもん適当にキューイングしながら分散せーや
47 : 2025/07/27(日) 19:58:21.72 ID:udyOxyQQ0
>>44
それ以前GPTに聞いたら順番待ちで遅くなるからやめろって言われたわ
それ以前GPTに聞いたら順番待ちで遅くなるからやめろって言われたわ
49 : 2025/07/27(日) 19:59:58.13 ID:59egPlBJ0
>>47
鯖に金払うか低コストで工夫するかの択や
鯖に金払うか低コストで工夫するかの択や
39 : 2025/07/27(日) 19:54:20.48 ID:fOGcbclV0
>>33
GPU以外のサービスだって全部金かかるだろ
GPU以外のサービスだって全部金かかるだろ
42 : 2025/07/27(日) 19:56:47.27 ID:udyOxyQQ0
>>39
GPUなければサーバー代安いやん
GPUなければサーバー代安いやん
48 : 2025/07/27(日) 19:59:33.74 ID:fOGcbclV0
>>42
答え出てるやん
GPUは高いんよ
答え出てるやん
GPUは高いんよ
50 : 2025/07/27(日) 20:00:01.14 ID:udyOxyQQ0
>>48
だからどうしたらええか聞いてるんや
だからどうしたらええか聞いてるんや
25 : 2025/07/27(日) 19:46:18.12 ID:udyOxyQQ0
誰か教えてくれ
27 : 2025/07/27(日) 19:46:52.62 ID:t34pfdHh0
ソース公開するか、自前でサービス展開するかの2択だよ
29 : 2025/07/27(日) 19:48:15.43 ID:59egPlBJ0
ちなtorch軽く使う程度ならCPU版でも動かせるやろ
まあそれでも画像生成サービスならまともなインスタンス欲しいけどな
t3microとかやとくっそ遅いぞ
まあそれでも画像生成サービスならまともなインスタンス欲しいけどな
t3microとかやとくっそ遅いぞ
34 : 2025/07/27(日) 19:50:56.49 ID:udyOxyQQ0
今はワイの4vramしかないパソコンで開発して一応動いてるんや
だから公開するにしても、一人につき最低4vram割り当てたい
でもそれやるとサーバー代めっちゃかかるよな?
だから公開するにしても、一人につき最低4vram割り当てたい
でもそれやるとサーバー代めっちゃかかるよな?
37 : 2025/07/27(日) 19:53:06.86 ID:wgoBM8oKr
この程度の知識でもの作ったとか嘘だろ
作れる知能あるならもうデプロイしてる
作れる知能あるならもうデプロイしてる
41 : 2025/07/27(日) 19:55:43.40 ID:udyOxyQQ0
>>37
ワイはサーバー周りは素人やからわからん
ワイはサーバー周りは素人やからわからん
43 : 2025/07/27(日) 19:56:49.45 ID:wgoBM8oKr
LLMのフロントエンドとしてホスティングしたら?
API返す感じで
API返す感じで
46 : 2025/07/27(日) 19:57:34.50 ID:udyOxyQQ0
>>43
もう少しくわしくたのむ
もう少しくわしくたのむ
51 : 2025/07/27(日) 20:00:12.62 ID:wgoBM8oKr
>>46
APIリクエストに対してollamaとか使って内部で計算させてレスポンス返したり
Cloudflare+Honoとかで実現できると思う
APIリクエストに対してollamaとか使って内部で計算させてレスポンス返したり
Cloudflare+Honoとかで実現できると思う
53 : 2025/07/27(日) 20:00:55.40 ID:OJHC/u1w0
GPU使うサービスとか、個人じゃ無理やで
月で100万は掛かるからな
月で100万は掛かるからな


コメント