UL Procyon AI Image Generation Benchmark - nowy test, który określi wydajność GPU w obliczeniach związanych z AI
Firma UL Solutions nie tak dawno zaprezentowała nowy wariant benchmarku, który miał wejść w skład oprogramowania UL Proycon. Nowość o nazwie AI Image Generation Benchmark stała się właśnie dostępna, a jej zadaniem jest pomiar wydajności układów graficznych w zadaniach związanych ze „sztuczną inteligencją”. Rozwiązanie nie jest jednak skierowane do zwykłych konsumentów, a jeśli i tak zechcemy z niego skorzystać, to powstrzyma nas przed tym cena produktu.
Twórcy popularnego benchmarku 3DMark wprowadzili nową możliwość testowania układów graficznych pod kątem ich wydajności w obliczeniach związanych z AI. UL Procyon AI Image Generation Benchmark jest płatnym pakietem skierowanym głównie do firm.
3DMark Steel Nomad - nadchodzi nowy benchmark dla kart graficznych. Ma być następcą wysłużonego Time Spy
Nowa wersja benchmarku oferuje przetestowanie wydajności układów graficznych ze średniej i wysokiej półki. UL Procyon AI Image Generation Benchmark wykorzystuje w tym celu dwa modele Stable Diffusion. Do wyboru mamy wariant 1.5 lub XL. Analogicznie pierwszy został skierowany do nieco mniej wydajnych jednostek. Przed uruchomieniem testu z listy możemy wybrać również silnik wnioskowania - NVIDIA TensorRT, OpenVINO (Intel) lub ONNIX Runtime (AMD). W trakcie pomiaru wydajności zostanie utworzonych łącznie 16 grafik, które oparte będą na tej samej komendzie (prompt), aby wyniki były możliwe do porównania pomiędzy różnymi konfiguracjami. Jeśli wybierzemy edycję korzystającą z modelu Stable Diffusion 1.5, to każdy obraz będzie miał rozdzielczość 512 x 512 pikseli, natomiast w drugim wypadku będzie to 1024 x 1024 pikseli. Do testu wymagana jest platforma z przynajmniej 16 GB pamięci RAM (32 GB w przypadku zintegrowanych układów graficznych) oraz GPU wyposażonym w 8 GB pamięci VRAM.
Geekbench 6 - nowa wersja popularnego benchmarku jest już dostępna do pobrania. Co nowego oferuje?
W naszej redakcji do przetestowania nowego benchmarku przysłużył się Damian Marusiak, który wykorzystał w tym celu laptop ASUS ROG Strix SCAR 18. Za wydajność tego sprzętu odpowiada procesor Intel Core i9-14900HX, 32 GB pamięci RAM w standardzie DDR5, a także układ graficzny NVIDIA GeForce RTX 4090 Laptop GPU. Wykorzystując Stable Diffusion XL na dedykowanym układzie graficznym, udało się uzyskać 2047 punktów. Czas tworzenia każdego z 16 obrazów wyniósł trochę ponad 18 sekund (łącznie 293 sekundy), a silnikiem wnioskowania był NVIDIA TensorRT. Jeśli zaś chodzi o zintegrowaną „grafikę”, to wynik uplasował się na wartości 31 punktów, a wygenerowanie jednej z grafik trwało ponad 200 sekund (Intel OpenVINO). Niektóre obrazy możemy zobaczyć poniżej. Na koniec warto zaznaczyć, że koszt wprowadzonego właśnie oprogramowania wynosi aż 5000 dolarów... za każdy rok.