Hem : Tekniska termer : CUDA Definition

CUDA

Står för "Compute Unified Device Architecture." CUDA är en parallell datorplattform utvecklad av NVIDIA och introducerades 2006. Den möjliggör programvara program att utföra beräkningar med både CPU och GPU. Genom att dela bearbetningsbelastningen med GPU (istället för att bara använda CPU) kan CUDA-aktiverade program uppnå betydande prestandahöjningar.

CUDA är en av de mest använda GPGPU (Allmän beräkning på grafikbearbetningsenheter) plattformar. Till skillnad från OpenCL, en annan populär GPGPU-plattform, är CUDA proprietär och körs endast på NVIDIA-grafik hårdvara. Men de flesta CUDA-aktiverade grafikkort stöder också OpenCL, så att programmerare kan välja att skriva kod för någon plattform när de utvecklas tillämpningar för NVIDIA-hårdvara.

Medan CUDA endast stöder NVIDIA-hårdvara kan den användas med flera olika programmeringsspråk. Till exempel tillhandahåller NVIDIA API: er och kompilatorer för C och C ++, Fortran och Python. CUDA Toolkit, en utvecklingsmiljö för C / C ++ utvecklare, är tillgängligt för Windows, OS X och Linux.

TechLib - Tech Lib Computer Dictionary

Denna sida innehåller en teknisk definition av CUDA. Det förklarar i dataterminologi vad CUDA betyder och är ett av många tekniska termer i TechLib-ordlistan.

Alla definitioner på TechLib-webbplatsen är skrivna för att vara tekniskt korrekta men också lätta att förstå. Om du tycker att denna CUDA-definition är till hjälp kan du referera till den med citatlänkarna ovan.