いてつくブログ

2ちゃんねるのスレッドをコピペしてまとめてみるブログ

CUDA

PC等Quadroが熱過ぎる

1 :不明なデバイスさん:2010/11/01(月) 19:50:38 ID:Kf5rIDuo
今日Quadro4000が届いたので早速取りつけてみたんだが、触れないぐらい熱いんだけど

26 :不明なデバイスさん:2010/11/04(木) 23:39:06 ID:1aDWR87+
GF100は不良チップで80℃~90℃が普通
電流漏れまくり、電圧盛りまくりでようやく動くゴミチップ
当然周りのパーツを壊したり、寿命を縮めたりする

GF100A3を使ってる製品

コア数  Geforce Quadro
512    -     -
480    480    -
448    470   6000
352    465   5000
256    -     4000

最初からゴミ箱直行レベルのチップだけど売らないと何ともならないので
使えそうなものから売っていった
そしてコアの半分が死んでいるどうにもならないゴミ中のゴミは
Quadro 4000として10万で売っている
コアの半分が死んでいるのに90℃前後とはひどいね


自作板では常識だけど知らない情弱のために

http://tranqsroom.blog60.fc2.com/blog-entry-719.html
原文
http://www.semiaccurate.com/2010/02/17/nvidias-fermigtx480-broken-and-unfixable/

152 :不明なデバイスさん:2011/06/30(木) 04:58:09.47 ID:NBrkm8Ao
Quadroの発熱が心配ならこれオススメ
http://www.scythe.co.jp/cooler/icy-vision-rev2.html

たぶんだけど4000にも付くと思う。
つか、人柱希望w
ちなみにウチの3800はGTX280だったか285のネジ位置で取り付けられて10℃近く温度下がった。

163 :不明なデバイスさん:2011/07/25(月) 23:31:14.27 ID:mQU656So
FX4800使ってるんだが、アイドルは今の季節で60度位。
性能は30万以下のワークステーションにも追いつかれたな~

254 :不明なデバイスさん:2011/12/04(日) 00:46:59.34 ID:97r0m1aK
ドライバを最新にしたらFlash動画でブルースクリーン出るようになった
どうも最新のFlashプレイヤーと最新のグラボのドライバが相性悪いようだ

262 :不明なデバイスさん:2012/02/01(水) 14:05:24.98 ID:bPpSNPhW
youtubeにQuadro4000とFirePro5900の比較動画があって
Quadroの方がかなり遅かった
値段はQuadroの方が高いんだけど
でも自分のCG業界周り見ても、FirePro使ってる所見かけないんだよな
やっぱPhysXとかCUDAって重要?

267 :不明なデバイスさん:2012/02/02(木) 15:29:46.35 ID:4cFxxrjZ
>>262
FirePro(ATI)が勢いづいてきたのがまだ去年あたりだから
業界的には急には変わらないでしょ

ただQuadro4000に乗せてるチップは完全に失敗作で
コレから徐々に逆転して行く可能性が高くなってる

ATIはすでに次世代28nmを出荷開始しるけど
NVはまだまったく未定


268 :不明なデバイスさん:2012/02/02(木) 15:34:03.62 ID:V/aFKw7M
>>267
CUDAといった環境が貧弱すぎるんでまだまだダメじゃないかな、ATIじゃ。
28nm世代が肩すかしとNVIDIAに言われてる位だし。

272 :不明なデバイスさん:2012/02/03(金) 09:42:07.98 ID:2i9i+Mzn
シェア10%しかないみたいだけどアメリカのCADに集中してるのか?

275 :不明なデバイスさん:2012/02/04(土) 22:19:59.35 ID:P64i3vgP
>>268
CUDAとか動画のエンコードに使ってるレベルで意味ない

286 :不明なデバイスさん:2012/02/17(金) 00:46:30.44 ID:Y+LBLFG+
QuadroはOpenGLに最適化されているそうですが、
GeForceと比べて、ドライバ、ECCメモリ以外に、ハードウェア的な違いというのはあったりするんでしょうか??
GPUのシリコンレベルで違う回路が入っていたりするんでしょうか??

287 :不明なデバイスさん:2012/02/17(金) 14:29:09.81 ID:o6zRd3bn
>>286
同じ、クロックが落としてある程度
>>26
とくにこのスレで言ってるQuadro4000~6000が使ってるGF100A3は
シリコンレベルで問題があるチップ

288 :286:2012/02/17(金) 21:06:32.47 ID:Y+LBLFG+
>>287
ありがとうございます。
うわぁ・・・フェルミってそんなヒドいチップだったんですね・・・
Quadroを選ぶ理由って、ECCと(バキューン!)の厚さくらいでしょうかね・・・

327 :不明なデバイスさん:2012/03/17(土) 21:43:15.94 ID:36RQS/ab
>>152
Quadro4000が熱すぎるから、VGAクーラーをつけようと思っているが、
そもそも分解方法が分からない。
上側のネジにはバネがついているし、下側は☆ネジだし。
分解方法さえ分かれば、よろこんで人柱になるよ。
だれか教えて。
レポするよ。

367 :不明なデバイスさん:2012/03/27(火) 18:23:31.79 ID:jCtB0uVa
Geforceに倍精度浮動小数点アクセラレーションあったか?
計算を速くやりたいからQuadro使うんじゃないのか?
2000以下のQuadroに意味があるのか俺はしらん

394 :不明なデバイスさん:2012/05/12(土) 22:27:29.72 ID:E6f2jUx+
GTX260→quadro2000導入してみた。
結果はクソ必要なかった
まずDirectXでは恩恵皆無なので大規模モデルはグリグリ回せない。
そんなわけで3dsmaxやzbrushでは恩恵を受けられず(と言うよりGTX260時から見てもかなりのパフォーマンス低下)
photoshopが固まりやすくなり落ちるようになったこんなの初めて。

良かった点は
流体とかの演算系の処理は早い
3D-Coatのボクセルではgtx260の時よりパフォーマンス向上したので恩恵はある


高額なQuadroブランドというものは
○エヌビ社員によるステマ
○高価なもの=間違いなくスバラシイであろうという勘違いさん
○信者による隠密工作

以上で形成されてるんだと感じた


すなおに評判の良いgtx680買えばよかった


404 :不明なデバイスさん:2012/05/17(木) 11:15:06.41 ID:G4HK7mWM
基本unixから移植した100万以上するハイエンドCADがOpenGLを使う
10万や20万の低価格ソフトには無縁

406 :不明なデバイスさん:2012/05/17(木) 19:22:55.93 ID:zTrXd1Xz
PC新しくしようと思ってます。
が、友人のQuadroオタク?(笑)がいて勧められてます。

用途は、RAW現像、2DCAD、動画編集でたまにゲームww
こんな用途なのですが、正直どうなのでしょう?

ちなみに、対象はQuadro600もしくは、GTX670です。

どなたか教えてください。

407 :不明なデバイスさん:2012/05/17(木) 19:30:43.10 ID:YvYBetET
安いgeforceで十分じゃないの?

410 :不明なデバイスさん:2012/05/17(木) 20:58:33.69 ID:zTrXd1Xz
>>407-409
ありがと~w

ちなみに、2000でも一緒?
しかし、やたら押されて困る・・・

喧嘩もしたくないから、言い訳どうしようwww

416 :不明なデバイスさん:2012/05/17(木) 22:38:24.03 ID:NZS/YQ/x
Shadeを使っています。アニメーション機能は使わず、
レンダリングもトゥーンレンダラしか使いません。
あまり複雑な物は作りませんが、モデリングの制作自体は
QuadroとGeforceどちらが作りやすいですか?

419 :不明なデバイスさん:2012/05/18(金) 00:14:15.21 ID:HR1EvagU
>>416
ShadeならOpenGLでグリグリした方が圧倒的に楽だと思いますよ

441 :不明なデバイスさん:2012/06/07(木) 02:06:23.12 ID:FWEsK0EI
今Quadro4000買おうかどうか迷ってるんですが時期が悪いですか?
もし新しいQuadroがすぐ出るんだったら購入しないようにしようかと思いますが

448 :不明なデバイスさん:2012/06/10(日) 04:09:08.82 ID:E/qEYS3x
>>441
あれこれ考えててもしょうがないからQuadro4000搭載PC注文したよ
FireProV4900だったら2万程度で買えるし、
こっちの性能も見てやろうと思ってる

450 :不明なデバイスさん:2012/06/12(火) 17:20:52.43 ID:VGja5N0X
>>448
FireProはテスト用の貸し出しやってるぞ

456 :不明なデバイスさん:2012/06/14(木) 18:26:21.10 ID:Rdw/toUh
Quadro410なんてのも出るのかよ
Keplerなの?

458 :不明なデバイスさん:2012/06/21(木) 20:35:36.85 ID:lEKZpt2a
C-6. 複数のビデオカードを使用している場合

複数のビデオカードを使用していて、強制終了やパフォーマン

スの問題が発生する場合は、いずれかのビデオカードを取りは

ずして、問題が改善されるか確認してください。
同一コンピュータ上に複数のビデオカードがあると、OpenGL

および Photoshop によって GPU が使用される際に問題の

原因となる可能性があります。単一のビデオカードから複数

のモニターに接続する方法を推奨します。複数のビデオカー

ドを使用する必要がある場合、すべてのカードが同一の製

造元、同一のモデルで、GPU を(バキューン!)していることを確認

してください。また、OpenGL および Shader モデルをサポー

トしている必要もあります。これらの要件を満たしていない

場合、Photoshop で強制終了などの問題が発生する可能

性があります。複数のビデオカードを使用しても、Photoshop

のパフォーマンス向上にはつながりません。




460 :不明なデバイスさん:2012/06/22(金) 10:13:30.25 ID:xHHUI1Dl
Quadro4000がアメリカで$600なんだけど安い?普通?

467 :不明なデバイスさん:2012/06/30(土) 12:01:44.53 ID:5lzPzEte
>>460
送料消費税考えるとLenovoで40% offで買うのと変わらない
50% offだとLenovoの方が安くなる
保証考えると微妙な値段

どうやらV7900が$650くらいからあるみたい
スペックはQadra4000よりもV7900の方がいいみたいだけど・・・

468 :不明なデバイスさん:2012/06/30(土) 13:02:33.94 ID:n5bR6Y/p
410って600の置き換え?

469 :不明なデバイスさん:2012/06/30(土) 16:04:54.74 ID:ofeKADYd
>>467
http://www.3dprofessor.org/Reviews%20Folder%20Pages/v7900/V7900P9.htm
http://www.3dprofessor.org/Reviews%20Folder%20Pages/Quadro4000/Q4KP8.htm

Quadro4000の方が若干上じゃないか
FireProはCUDAもないし

472 :不明なデバイスさん:2012/07/01(日) 08:09:36.80 ID:RaHk0XMJ
そんなにFireProが好きなら専用スレたてればいいじゃん^^;
こっちくんなよキメエから…

476 :不明なデバイスさん:2012/07/01(日) 10:58:48.06 ID:Z3MqQ+BX
何がヌルヌル動くかもかかんで病院いけとな?
とりあえず去って行く前にソフト名書いといてや

481 :不明なデバイスさん:2012/07/01(日) 11:38:36.22 ID:zCJafdw9
俺はゲーム会社でFireProでの作業検証させられたことあるけど
Mayaがバシバシ落ちるから使い物にならんかったよ
SpecViewperfではQuadroに及ばないもののそこそこの数字出してたけど
実用レベルではない
ハリウッドでもFireProは無視されてるようだし今のシェアはまあ妥当だろ

482 :不明なデバイスさん:2012/07/01(日) 11:40:55.69 ID:RaHk0XMJ
建てといてやったぞ

【AMD】FireProシリーズ Part1
http://toro.2ch.net/test/read.cgi/hard/1341110408/

485 :不明なデバイスさん:2012/07/01(日) 16:26:46.14 ID:917dDLp9
いま2chでQuadroスレがここだけって酷すぎだろ
このスレ終わったらスレタイ整えてスレ立てしようよ

487 :不明なデバイスさん:2012/07/01(日) 19:15:58.09 ID:ssJ/NTRW
それだと不毛な宗教戦争になるからスレ分けた方がいいだろ
FireProの話題は向こうでやればいい

489 :不明なデバイスさん:2012/07/01(日) 19:51:07.20 ID:k/K1q0+T
>>487-488
馬鹿みたいw

もともと情報が少ないから少しでも集積をと考えたが駄目か
あっちのスレでQuadroとFirepro混ぜて話することにする

490 :不明なデバイスさん:2012/07/01(日) 19:54:04.52 ID:KKZ6T4s0
>>489
ご自由にどうぞ!

493 :不明なデバイスさん:2012/07/01(日) 20:57:10.42 ID:ZQHKsxOc
なんでわざわざ一緒にするのかね
Quadroにひっついて何とかfireproのアピールをしようという意図しか感じないんだが

499 :不明なデバイスさん:2012/07/01(日) 23:03:41.62 ID:kZR8g7Ox
NVはケプラーも不調で決算も赤字でピリピリしてんのか
quadroスレなんて需要がなくて
必ず落ちるのに
このスレタイだからかろうじてもってるようなもん

503 :不明なデバイスさん:2012/07/02(月) 00:46:39.78 ID:MMPYkQ84
Quadro410

こっちではKepler
http://www.cgin.jp/shopdetail/012002000076/

こっちではFermi
http://www.able.across.or.jp/catalog/product_info.php?products_id=4073



いったいどっちやねん(´・ω・`)

511 :不明なデバイスさん:2012/07/03(火) 18:22:08.80 ID:mWAGjX90
レノボのセールもう半年以上やって無いじゃん
あきらめれよ

512 :不明なデバイスさん:2012/07/04(水) 14:25:39.36 ID:0Sb4zu3I
ちょっと見てきたけど自作板のopenGLスレはかなり良スレになりそうだな
有用な情報がどんどん集まってきてる
RadeonのFirepro化とか知らなかったし目から鱗だわ

515 :不明なデバイスさん:2012/07/04(水) 18:44:49.36 ID:6DNl2oyQ
前も自作版にたってたんだがな
すぐ過疎ったけど

517 :不明なデバイスさん:2012/07/04(水) 19:21:38.92 ID:A9q0NC60
<丶`∀´>  <QuadroよりFireProの方が凄いニダ。
( ´・ω・`) <…ん?ベンチだとQuadroの方が性能上のようだが?
<丶`∀´> <ベンチはわからんけど実際に使うとAMDの勝利ニダ!ヌルヌルニダ。
( ´・ω・`) <FireProが好きなら専用スレ行けば?建てといてあげたよ。
<丶`∀´> <FirePro単独じゃやっていけないニダ!Quadroと合同で自作板にスレ建てするニダ。
( ´・ω・`) <…もうこっち来るなよ。

<( ´・ω・`) <向こうは良スレになりそう…ニだ。Fireproの情報は少なかったし助かるニ…ダ

525 :不明なデバイスさん:2012/07/15(日) 16:20:45.45 ID:FKSLVtYJ
自動インストール切ってから勝手に更新するなって言っておく

528 :不明なデバイスさん:2012/07/15(日) 21:02:15.51 ID:BU2K7xxE
ドライバ
付属のCDのままだわw

531 :不明なデバイスさん:2012/07/17(火) 22:24:43.76 ID:nalm71OA
PNY
NVIDIA Quadro 2000 VCQ2000-PB
っていうのが4万以下で売ってるんですけど
これってELSAのとどう違うんですか?

539 :不明なデバイスさん:2012/07/26(木) 02:41:34.30 ID:f4PXgCxx
teslaって何か意味あるの?
ゲフォ挿したほうがコスパ良いような気がするんだけど

541 :不明なデバイスさん:2012/07/26(木) 18:52:56.76 ID:f4PXgCxx
teslaって言ってるじゃんw
GPGPU目当てでQuadro+Teslaにする意味ってあるのかって事
Quadro+Geforceじゃまずいの?

560 :不明なデバイスさん:2012/08/09(木) 00:06:02.26 ID:1jpBpJwW
Quadro K2000 か K600が出るのはまだですか?

569 :不明なデバイスさん:2012/09/07(金) 15:37:02.71 ID:j6kPN1qZ
真下のサウンドボードが死んだw

577 :不明なデバイスさん:2012/09/09(日) 03:14:08.98 ID:/Fb/brK3
600?  プッ

597 :不明なデバイスさん:2012/10/05(金) 18:23:02.42 ID:JPCWRQNM
>Quadroが熱過ぎる
今日実感した、仕事してる部屋だけ「むわ~」って気温が4度くらい高い
maya起動してるだけで特別重たい作業はしてないのにな

599 :不明なデバイスさん:2012/10/07(日) 03:28:53.72 ID:QqQrnuqt
アホか
Quadro600使ってるけど全然問題ないわ
さすがQuadro600だと思ったわ

603 :不明なデバイスさん:2012/10/08(月) 23:00:38.86 ID:4An8FjUC
KeplerなQuadro410と比べたらどちらもゴミ

604 :不明なデバイスさん:2012/10/08(月) 23:43:25.96 ID:v+nz9xsW
KeplerなQuadro610とか出ないかな
自分の用途にはそれぐらいが丁度良い

615 :不明なデバイスさん:2012/10/11(木) 16:30:28.74 ID:H3x3Bfdo
全然関係ない
単純にCPUの処理能力が現状一般向けのi7より早いだけ
Quadroの処理能力は変わらない

643 :不明なデバイスさん:2012/10/22(月) 21:48:09.05 ID:TxZFM+N/
maxはゲフォでも十分動くじゃん
動作条件Direct3Dだし

651 :不明なデバイスさん:2012/10/31(水) 19:58:58.46 ID:vQtZIkYI
http://www.techpowerup.com/gpudb/1839/NVIDIA_Quadro_K600.html
こんなの発見。256bit!?どういう事?

658 :不明なデバイスさん:2012/11/05(月) 15:18:18.73 ID:FPAHYxXE
うん、買わない
うちの会社はあと5年はFX1800のポンコツワークステーションで通すよ
貧乏な中小CG企業に一枚20万のカードなんて導入できませんw

695 :不明なデバイスさん:2012/11/19(月) 16:19:07.41 ID:qDNbozTL
http://www.nvidia.com/content/PDF/product-comparison/Product_Comparison_Oct_2012.pdf


http://toro.2ch.net/test/read.cgi/hard/1288608638/l50/../人気ブログランキングへ

PC等【GPGPU】くだすれCUDAスレ part5【NVIDIA】

1 :デフォルトの名無しさん:2011/08/23(火) 22:08:06.09
このスレッドは、他のスレッドでは書き込めない超低レベル、
もしくは質問者自身何が何だが分からない質問を勇気を持って書き込むスレッドです。
CUDA使いが優しくコメントを返しますが、
お礼はCUDAの布教と初心者の救済をお願いします。

CUDA・HomePage
http://developer.nvidia.com/category/zone/cuda-zone

関連スレ
GPGPU#5
http://hibari.2ch.net/test/read.cgi/tech/1281876470/

前スレ
【GPGPU】くだすれCUDAスレ【NVIDIA】
http://pc12.2ch.net/test/read.cgi/tech/1206152032/
【GPGPU】くだすれCUDAスレ pert2【NVIDIA】
http://pc12.2ch.net/test/read.cgi/tech/1254997777/
【GPGPU】くだすれCUDAスレ pert3【NVIDIA】
http://hibari.2ch.net/test/read.cgi/tech/1271587710/
【GPGPU】くだすれCUDAスレ pert4【NVIDIA】
http://hibari.2ch.net/test/read.cgi/tech/1291467433/

159 :デフォルトの名無しさん:2011/11/27(日) 22:05:36.51
全スレッドの計算結果を1コアに集約して1スレッドで処理したいんだけどいい方法あるかな?
リダクションのサンプルだと最後はCPUで合計だしこれでは都合悪いんだよね
全てGPUでやりたいのよね

195 :デフォルトの名無しさん:2011/12/07(水) 00:45:36.69
+=で同じアドレスに同時書き込みしてるから

197 :デフォルトの名無しさん:2011/12/07(水) 01:27:31.21
競合状態が発生してんじゃないの?
atomic演算とか同期が必要だと思うよ。
512スレッドで同一アドレスの変数の読み書きしてんだから。

まず512個の要素の配列作って、添え字にスレッド番号(上のi)を指定して確認してみたら?
書籍ならcuda exampleも買って読むといいかもね

198 :デフォルトの名無しさん:2011/12/07(水) 02:05:18.21
>>197
>競合状態が発生してんじゃないの?
>>195のコメと合わせて考えるに、なんとなく予想はしてましたけど、取り合いになってるんですね...

>atomic演算とか同期が必要だと思うよ。
まだザックリとしか勉強してないので、atomic演算は知らなかったです。あとで試してみます。
同期を行う場合だったら、どうすればいいのだろう。

>まず512個の要素の配列作って、添え字にスレッド番号(上のi)を指定して確認してみたら?
それは分岐条件がきちんと実行しているのか見るためのテストをしたとき確認しました。

274 :デフォルトの名無しさん:2012/01/06(金) 20:14:34.67
環境
Windows7 Professional 64bit
Microsoft Visual C++ 2010 Express Version 10.0.40219.1
Microsoft .NET Framwork Version 4.0.30319
GeForce GTX 580
CUDA Toolkit 4.0.17
SDK 4.0.19
devdriver_4.0_winvista-win7_64_270.81_general

この(ピヨピヨ)を参考に環境を構築しました。
http://feather.cocolog-nifty.com/weblog/2011/07/visual-studio-2.html
そして以下のサイトのサンプルプログラムを実行してみました。
http://www.gdep.jp/page/view/218
Hello,Worldと99 bottles of beerはcpu、gpu共に実行できました。
しかし、Matrixのプログラムはcpuの方は実行できるのですがgpuの方が実行できません。
以下のエラーを吐きます。
matrix_gpu.cu(5) : fatal error C1083: Cannot open include file: 'cutil_inline.h'
: No such file or directory
どうやらVisualStudioのパスがうまく通ってないということまでわかり、以下のサイトなどを参考にCUDA_INC_PATHなどを変えてみましたが、一向に変わりません。
http://d.hatena.ne.jp/Levi/20090921/1253535802#c
SDK内のcutil_inline.h自体をtoolkitのincフォルダにコピペすると、他の.hファイルもいくつか同じエラーが出たのでエラーになったものをすべてコピペしたところ、LNK2019"link.exe"というエラーで先に進めませんでした。
一度VisualStudioを再インストールしてみましたが、状況は変わりません。
Nvidia GPU computing SDK Browserではサンプルプログラムを実行できているので、CUDAの環境は整っていると思われます。
どうすれば解決できますでしょうか・・・。かれこれ1週間以上格闘しています。
VisualStudioは2010よりも2008にした方がいいでしょうか?


275 :デフォルトの名無しさん:2012/01/06(金) 20:23:04.24
C初心者にはきついと思うんだが…
とりあえず 'cutil_inline.h'のある場所を見つけて
そこを-I /'cutil_inline.hのある場所'と指定する

意味わからなければCのコンパイルを勉強すること

292 :デフォルトの名無しさん:2012/01/09(月) 18:01:50.03
>>275

274です。
-Iオプションを付けてヘッダファイルのある場所を指定してみましたが、相変わらず同じエラーです。

C:\cuda_practice\test>nvcc -o matrix_gpu.exe matrix_gpu.cu -I C:\ProgramData\NVIDIA Corporation\NVIDIA GPU Computing SDK 4.0\C\common\inc
matrix_gpu.cu
matrix_gpu.cu(5) : fatal error C1083: Cannot open include file: 'cutil_inline.h': No such file or directory

自分でも試行錯誤してみますが周りにcudaがわかる人がいなくて行き詰ってます・・・。

298 :デフォルトの名無しさん:2012/01/10(火) 17:15:02.61
sharedメモリって同一WARP内でのやり取りだったら同期なしで大丈夫なのでしょうか?
たとえば全部で32スレッドで次のkernelを実行した場合、
WARP内で一斉にsharedメモリに書きに行くので同期しないで大丈夫かと
思ったのですが、実際にはうまくいきません。
globalメモリに読みに行く段階でコアレッシングが発生していないので
それが原因なのでしょうか?
どなたか教えてください。

__global__ void kernel(float *g_v, float *g_x){
float x = 0.0f;
int i = blockDim.x * blockIdx.x + threadIdx.x;
__shared__ float s_v[32];

s_v[i] = g_v[i+i%3];
__syncthreads(); // これが必要かどうか?
x = s_v[(i+3)%32];
g_x[i] = x;
}


299 :デフォルトの名無しさん:2012/01/10(火) 17:35:07.81
>>292

参照パスを ""で囲む♪

355 :デフォルトの名無しさん:2012/01/24(火) 19:53:55.48
コンパイル時に以下のエラーメッセージが出ているのですが、
ptxas error : Entry function '...' uses too much local data (0x16054 bytes, 0x4000 max)
これはローカルメモリーと何か関係あるような気がするのですけど、
ちょっとわからないので教えて頂けないでしょうか。
宜しくお願いします。


357 :デフォルトの名無しさん:2012/01/24(火) 21:56:32.01
> ptxas error : Entry function '...' uses too much local data (0x16054 bytes, 0x4000 max)

単に配列の次元が大きすぎるのでは?

最大 0x4000バイトのところを0x16054 bytes使おうとしている?


> ホスト・デバイスともに共有させたい場合はどうしたらいいのでしょうか?

物理的に無理でないの?

ホスト←→デバイス間でコピーしないといけないのでは??


358 :デフォルトの名無しさん:2012/01/24(火) 21:56:54.10
>>355
メッセージそのままの意味だろ。

362 :355,356:2012/01/25(水) 15:21:00.98
>>358
青木氏の「はじめてのCUDA」に似たようなエラーメッセージが載ってるのですが、
local dataがどの部分の話なのか、ちょっとわからない状態でして...

>>357
>単に配列の次元が大きすぎるのでは?
予定だと1×256スレッドしか使うので、足りないはずないような... 意味が違うか。
ちょっとわからないので詳細お願いします。

>ヘッダーファイルに
>#DEFINE
>などで定義して、ホストとデバイスのプログラムに そのヘッダーファイルをinclude する手があった♪

ちょっと試してみます。それができなかったら、コピーするしかないかもしれません。
__device__ extern TEST test;
のような宣言してて、実行ファイルができたときがあったのですが、何か違うよな、と引っかかってたので、
ここで質問しました。ありがとうございます。



363 :デフォルトの名無しさん:2012/01/25(水) 17:40:16.56
差し支えなければプログラムをアップしてくださいませ♪

364 :デフォルトの名無しさん:2012/01/25(水) 18:01:06.82
>>362

この(ピヨピヨ)の一番下にある資料の3-41ページにそのエラーメッセージが載っている模様。
http://accc.riken.jp/HPC/training.html






365 :355,356:2012/01/25(水) 18:04:09.31
>>362です。

>>363
申し訳ないのですが、プログラムのアップは出来ないです。すみません。

なんかもう分からなくなったので、ホストとデバイスの住み分けを行ったところ、
「ptxas error...」云々のメッセージが消え、コンパイルできました。
(さっきまでhost,device,global宣言関数がごちゃ混ぜな状態だった。)
何が原因だったのか分からず仕舞いです。

グローバル変数の共有はとりあえず、コンスタントメモリにデータコピーで様子見することにしました。
元コード(.c)をもう一度読み直したところ、デバイス側の方はReadOnlyで十分なようでしたから。

皆様回答ありがとうございました。またよろしくお願いします。



366 :365:2012/01/25(水) 21:05:50.75
>>364
資料ありがとうございます。
うまくいったと思った途端、また同じエラーが出てきてしまったので、確認します。

.cファイルに.cuファイルを組み込ませるようにしたら、
__host__ __device__で修飾した関数が定義されてないと.cファイル側に言われ、
.cファイルと.cuファイルそれぞれ単独で動かせるようにしたら、
(同じ内容の関数を.cと.cuそれぞれ別名で実体作った。.c:test .cu:ktestみたいな)
今度はさっきと同じエラー。

実行ファイル作るだけなのに難しい...

368 :デフォルトの名無しさん:2012/01/26(木) 08:53:13.45
取り敢えずCudaのサンプルは捨てて、インクルード関係とオブジェクトの生成手順を確認するんだ。

370 :366:2012/01/26(木) 16:19:08.01
>>368
>取り敢えずCudaのサンプルは捨てて、インクルード関係とオブジェクトの生成手順を確認するんだ。
のように手順を踏んでコンパイルしたところ、実行ファイルができました。
皆様ありがとうございました。

371 :370:2012/01/26(木) 20:33:24.55
お恥ずかしながら、また戻ってきました。
あれからセグメンテーション違反が出てきてしまったので、あれこれ探していた結果、
どうやらデバイスのメモリ確保&送信に失敗していたようです。

しかし解せないことがあって、
構造体A a,構造体B b[100],構造体C c[100],...(以下略 をデバイス側に送るのですが、
(1つ1つのサイズは結構大きめ。グローバルは1GBあって余裕で確保出きるハズ...)
void main(){
・・・
test(&a,b,c....);
}
void test(A *a,B *b,C *c...){
A *d_a; B *d_b; C *d_c;
CUT_SAFE_CALL(cudaMalloc((void**)&d_a,sizeof(A)));
CUT_SAFE_CALL(cudaMemcpy(d_a,a,sizeof(A),cudaMemcpyHtoD));

CUT_SAFE_CALL(cudaMalloc((void**)&d_b,sizeof(B)*100));
CUT_SAFE_CALL(cudaMemcpy(d_a,b,sizeof(B)*100,cudaMemcpyHtoD));
・・・

はじめてcuda,cuda_by_exampleで確認したところ、
文法的ミスはないはずなのに確保ミスしてるらしく、中断してます。

この原因は一体全体なんなんでしょうか。




372 :デフォルトの名無しさん:2012/01/26(木) 21:28:56.32
4.1正式版
CUDA Toolkit 4.1 | NVIDIA Developer Zone
http://developer.nvidia.com/cuda-toolkit-41


373 :デフォルトの名無しさん:2012/01/26(木) 21:55:28.42
構造体の中身がよく分からんが,allocateのところで *100は必要なのかな?

構造体Bのメモリーを100個分用意しようとしている??

構造体Bの中にすでに [100]個の配列を取っているのに???

数は合っておるのか????

375 :デフォルトの名無しさん:2012/01/27(金) 00:03:32.49
>>372
遂にRC取れたか!4.0からどう変わってるか知らんけど。
Kepler向けのプログラムを作れるのは5.0とかになるんだろうか。
そしてそれはいつ出るんだろう。

>>371
1GBのVRAM積んでるカードでも400MBぐらいの確保で失敗したことがあったような覚えがある。
確保するサイズを小さくしてもエラーが出るってんならこの話は忘れてくれ。

383 :371:2012/01/27(金) 18:15:48.81
>>373
CUT_SAFE_CALL(cudaMalloc((void**)&d_b,sizeof(B)*100));
CUT_SAFE_CALL(cudaMemcpy(d_a,b,sizeof(B)*100,cudaMemcpyHtoD));
これはミスですね....
正しくは
CUT_SAFE_CALL(cudaMalloc((void**)&d_b,sizeof(B)));
CUT_SAFE_CALL(cudaMemcpy(d_a,b,sizeof(B),cudaMemcpyHtoD));
です。すみません。

>>375
4000MBの領域確保でも失敗することがあったんですか...
ちょっと試してみます。

387 :383:2012/01/28(土) 17:54:35.37
>>371
なんかサンプルがめちゃくちゃなんで書き直します。

388 :387:2012/01/28(土) 20:55:21.49
確認なのですけど、カーネル関数の引数はポインタ限定ですか?

671 :デフォルトの名無しさん:2012/04/29(日) 14:44:53.67
GPUのデメリットは同じ変数計算を毎回糞真面目に超高速で行うところ

719 :デフォルトの名無しさん:2012/05/17(木) 21:52:07.76
多次元配列を扱えないのは何でなんだろう.

ブロックとスレッドインデックスで一次元化するの面倒なんだけど.

737 :デフォルトの名無しさん:2012/05/23(水) 14:44:51.35
詳しい方に質問させてください。
Win7Pro64 + VC2010Pro + CUDA4.2で32bitのdll (Matlabのmex)を
作成して、カーネル(1回のみ呼び出し)の実行時間を計測しました。
Nsight Visual Studio Editionのプロファイルでは約3583msとなったのですが、
メイン関数側でカーネル呼び出しの時間を調べると12079msとなりました。
この差の原因がわからずに困っているのですが、心当たりのある方は
いらっしゃいませんか?
足りない情報などあればツッコんでください。
よろしくお願いします。

738 :デフォルトの名無しさん:2012/05/23(水) 15:16:21.45
>>737
詳細は実際のコードを見ないと判らないけれど、カーネル呼び出しは完了復帰じゃないよ。
逆に、それを巧く利用すればGPUとCPUで並列処理ができるって寸法だ。

739 :737:2012/05/23(水) 15:25:51.83
>>738
レスありがとうございます。
メイン関数側での測定は、カーネル呼び出し後に
cudaThreadSynchronize();
としてから測定していますが、これではダメですか?
これを入れ忘れると、メイン関数側での測定時間が極端に短くなる
という話はよく目にするのですが、今回は逆に、メイン関数側での
測定時間が極端に長くなっています・・・・

758 :デフォルトの名無しさん:2012/06/02(土) 02:34:05.01
CUDAで計算した結果をDirect3Dで描画したいんですが、
同じプログラム内で同時に使っても問題ないでしょうか?
一つのGPUがCUDAとDirect3Dを切り替えて使うので、
切替のオーバーヘッドとか大きかったりするんでしょうか??

777 :デフォルトの名無しさん:2012/06/08(金) 14:37:45.13
カーネル関数で乱数使いたいとき、みんなどのライブラリを使ってるの?
curandとtinymtは使ったことがあるんだけど、他におすすめある?

829 :デフォルトの名無しさん:2012/08/02(木) 16:58:06.96
最近CUDAの勉強を始めて、試しに画像処理アプリをGPU用に書き換えているのですが
どうしても分からないことがあるので質問させてください

double *a[5],*d_a[5];
int size=1280*1024; //実際には読み込んだ画像のサイズが入ります
for(i=0;i<5;i++){
a[i]=(double *)calloc(size,sizeof(double));
for(j=0;j<size;j++)a[i][j]=i*j; //ここのi*jは実際には読み込んだ画像の画素情報が入ります
}
for(i=0;i<5;i++)cudaMalloc((void**)&d_a[i],sizeof(double)*size);
for(i=0;i<5;i++)cudaMemcpy(d_a[i],a[i],sizeof(double)*size,cudaMemcpyHostToDevice);
func<<< Dg, Db >>>(d_a);

__global__ void func(double *f_a[5]);
上記のf_a[5]の、ホストにおけるa[i][j]にあたる値を参照するにはどうしたらよいでしょうか
ホスト同様にf_a[i][j]とすると
Warning: Cannot tell what pointer points to, assuming global memory space
上記の警告が出て上手くいきません
超初歩的な質問かと思いますが、アドバイス宜しくお願いします

830 :デフォルトの名無しさん:2012/08/02(木) 17:15:58.20
>>829
d_aはホスト上の配列。そいつへのポインタを渡してもなんともならない。
d_aが固定長でいいなら、__global__ void func(doule * f_a0, doule * f_a1, doule * f_a2, doule * f_a3, doule * f_a4);
とするのが手っ取り早い。
d_aが可変長だったり巨大だったりするなら、
double ** dPtrArray, ** hPtrArray;
hPtrArray = malloc(sizeof(* hPtrArray) * length);
cudaMalloc((void **) & dPtrArray, sizeof(* dPtrArray) * length);
for (int ic = 0; ic < length; ++ic) {
cudaMalloc((void **) & hPtrArray[ic], sizeof(* tmp) * size);
cudaMemcpy(hPtrArray[ic], a[ic], sizeof(double) * size, cudaMemcpyHostToDevice);
}
cudaMemcpy(dPtrArray, hPtrArray, sizeof(* hPtrArray) * length, cudaMemcpyHostToDevice);
とでもしないと。

853 :デフォルトの名無しさん:2012/08/06(月) 23:15:24.01
C++とCUDAを連携させたプログラムを作成しているのですが、どうしても解決出来ない問題が発生してしまったので教えて下さい。
C++のスレに質問するか迷ったのですが、エラーにはCUDAがメインで関わっていると思ったのでこちらに書き込みます。

C++のプログラムからCUDAのプログラム(既にexeになっているもの)を実行したいと思い、下記のようなプログラムを作成したのですが、
CUDAプログラム単体では動いているのにC++のプログラムから呼び出すと実行時にエラーが発生してしまいます。

SDK内のサンプルプログラムでも実行エラーになってしまうので、CUDAプログラム側のバグでは無いと思うのですが…
system関数では実行出来ないのでしょうか?system関数以外でも良いのでなんとか実行する方法が知りたいです。


int _tmain(int argc, _TCHAR* argv[])
{

int ret;

printf("CUDAプログラム実行開始\n");
ret = system("\"D:\\Program File\\Test_Print.exe\"");
if(ret == 0)
{
printf("プログラム実行成功\n");
}
else
{
printf("プログラム実行失敗\n");
}

}

854 :デフォルトの名無しさん:2012/08/06(月) 23:54:55.12
そのTest_Print.exeと同じ場所に何でもいいのでC++で作った何か*.exeを置いて同じことを試してみなよ。
俺があてずっぽうで言うとたぶん同じようにうまくいかないつまりCUDAがどうこうって問題じゃない。

857 :デフォルトの名無しさん:2012/08/07(火) 03:43:55.76
>>853
system関数のマニュアル見てエラーの値をしらべたら?

869 :デフォルトの名無しさん:2012/08/11(土) 20:06:38.41
超基本的な質問をしたい。

「はじめてのCUDAプログラミング」を読んで色々動かしてるんだが、
ブロックとスレッドとSMとSPのそれぞれ関係がいまいちモヤッとしてる。

最初から順に読んでいて、57 ページの次の説明で躓いた。

> スレッド当たりのレジスタ数が
> 「SM当たりのレジスタ数 / ブロック内のスレッド数」
より多い時は、「カーネル関数」を実行できなくなります。

SM や レジスタは物理的なもので、ブロックやスレッドは論理的なものなのに、
なんでごちゃ混ぜになってるのか・・・

その少し後のページも見たり、直前の Warp の説明を読んで
俺なりに考えた結果、次のような認識なのだが、これは間違ってる?

・1つの SP は一度に1つのスレッドを処理する
・1つの SM は一度に1つのブロックを処理する


http://toro.2ch.net/test/read.cgi/tech/1314104886/l50/../人気ブログランキングへ

学ばないブログ
忍者AdMax
記事検索
最新コメント
QRコード
QRコード
  • ライブドアブログ