|
显卡 |
训练表现/ 相对于 A100 80G |
TDP/w |
每瓦性能/ 相对于 A100 80G |
|
A100 80G |
1 |
300 |
1 |
|
A100 40G |
0.86 |
250 |
1.032 |
|
RTX4090 |
0.69 |
450 |
0.459 |
|
RTX4080 |
0.505 |
320 |
0.473 |
|
RTX4070 |
0.42 |
200 |
0.63 |
|
RTX3090 |
0.48 |
350 |
0.41 |
|
RTX3080 |
0.38 |
320 |
0.35 |
|
RTX3070Ti系列 |
0.34 |
290 |
0.35 |
|
RTX3060 |
0.24 |
170 |
0.42 |
|
RTX3050 |
0.16 |
130 |
0.37 |
|
RTX2080Ti系列 |
0.29 |
250 |
0.35 |
|
RTX2080 |
0.21 |
215 |
0.29 |
|
RTX2070 |
0.19 |
175 |
0.32 |
|
RTX2060 |
0.16 |
160 |
0.3 |
|
AMD Radeon VII |
0.12 |
300 |
0.12 |
|
GTX1080Ti系列 |
0.2 |
250 |
0.24 |
|
GTX1070 |
0.13 |
150 |
0.26 |
|
GTX1660超级 |
0.09 |
125 |
0.216 |
|
AMD Rx580 8G |
0.095 |
185 |
0.154 |
考虑到平均20%的网络损耗,实际分布式AI训练相对于集中式A100 80G计算集群的性能瓦特比如下:
|
显卡 |
训练表现/ 相对于 A100 80G |
TDP/w |
每瓦性能/ 相对于 A100 80G |
|
RTX4090 |
0.552 |
450 |
0.367 |
|
RTX4080 |
0.404 |
320 |
0.378 |
|
RTX4070 |
0.336 |
200 |
0.504 |
|
RTX3090 |
0.384 |
350 |
0.328 |
|
RTX3080 |
0.304 |
320 |
0.28 |
|
RTX3070Ti系列 |
0.272 |
290 |
0.28 |
|
RTX3060 |
0.192 |
170 |
0.336 |
|
RTX3050 |
0.128 |
130 |
0.296 |
|
RTX2080Ti系列 |
0.232 |
250 |
0.28 |
|
RTX2080 |
0.168 |
215 |
0.232 |
|
RTX2070 |
0.152 |
175 |
0.256 |
|
RTX2060 |
0.128 |
160 |
0.24 |
|
AMD Radeon VII |
0.096 |
300 |
0.096 |
|
GTX1080Ti系列 |
0.16 |
250 |
0.192 |
|
GTX1070 |
0.104 |
150 |
0.208 |
|
GTX1660超级 |
0.072 |
125 |
0.173 |
|
AMD Rx580 8G |
0.076 |
185 |
0.123 |







