Android

Nvidia 【sve informacije】

Sadržaj:

Anonim

Nvidia Corporation, poznatija kao Nvidia, američka je tehnološka tvrtka osnovana u Delawareu i sa sjedištem u Santa Clari u Kaliforniji. Nvidia dizajnira grafičke procesne jedinice za video igre i profesionalna tržišta, kao i čip jedinicu (SoC) sustav za tržište automobilskih i mobilnih računala. Njegova osnovna linija proizvoda, GeForce, u izravnoj je konkurenciji s AMD-ovim Radeon proizvodima.

Preporučujemo čitanje naših najboljih vodiča za hardver i komponente računala:

Uz proizvodnju GPU-a, Nvidia pruža istraživačima i znanstvenicima mogućnosti paralelne obrade širom svijeta, omogućujući im da učinkovito pokreću aplikacije visokih performansi. U novije vrijeme prešao je na tržište mobilnog računanja, gdje proizvodi mobilne procesore Tegra za konzole, igraće tablete i autonomne navigacijske sustave i sustave za zabavu vozila. To je dovelo do toga da Nvidia od 2014. postane tvrtka usredotočena na četiri tržišta: igre, profesionalna vizualizacija, podatkovni centri te umjetna inteligencija i automobili.

Sadržaj indeks

Nvidia povijest

Nvidiju su 1993. osnovali Jen-Hsun Huang, Chris Malachowsky i Curtis Priem. Tri suosnivača tvrtke hipotetirala su da će pravi smjer računanja proći kroz obradu ubrzane grafikom, vjerujući da bi ovaj računalni model mogao riješiti probleme koje računanje opće namjene ne može riješiti. Također su istaknuli da su videoigre jedno od najzahtjevnijih problema u vezi s računanjem i da imaju nevjerojatno veliku količinu prodaje.

Od male tvrtke za videoigre do giganta umjetne inteligencije

Tvrtka je rođena s početnim kapitalom od 40 000 USD, u početku nije imala ime, a suosnivači su imenovali sve svoje NV datoteke, kao u sljedećem izdanju. Potreba za osnivanjem tvrtke nagnala je suosnivače da pregledaju sve riječi s ta dva slova, što ih je dovelo do "invidia", latinske riječi koja znači "zavist".

Pokretanje RIVA TNT-a 1998. godine učvrstilo je reputaciju Nvidije u razvoju grafičkih adaptera. Krajem 1999. godine Nvidia je objavila GeForce 256 (NV10), koji je na najpoznatiji način uveo transformaciju i osvjetljenje na razini potrošača (T&L) u 3D hardveru. Radeći na 120 MHz i sadrži četiri linije piksela, implementirao je napredno ubrzanje videa, kompenzaciju pokreta i hardversko miješanje pod slike. GeForce je u velikoj marži nadmašio postojeće proizvode.

Zbog uspjeha svojih proizvoda, Nvidia je dobila ugovor za razvoj grafičkog hardvera za Microsoftovu igraću konzolu Xbox, čime je Nvidia zaradila 200 milijuna dolara unaprijed. Međutim, projekt je uzeo mnoge svoje najbolje inženjere iz drugih projekata. U kratkom roku to nije bilo važno, a GeForce2 GTS isporučen je u ljeto 2000. U prosincu 2000. godine, Nvidia je postigla sporazum o kupnji intelektualne imovine svog jedinog suparnika 3dfx, pionira u 3D grafičkoj tehnologiji za potrošača. koji su vodili teren od sredine 1990-ih do 2000. Proces stjecanja završio se u travnju 2002.

U srpnju 2002. godine Nvidia je Exluna nabavila za neotkriveni iznos novca. Exluna je bila odgovorna za stvaranje različitih alata za obradu softvera. Kasnije, u kolovozu 2003., Nvidia je nabavila MediaQ za približno 70 milijuna dolara. Također je 22. travnja 2004. kupio iReady, davatelja TCP / IP i iSCSI rješenja za učitavanje visokih performansi.

Toliko je uspješan Nvidia na tržištu videoigara da je u prosincu 2004. najavljeno da će Sony pomoći dizajniranju RSX grafičkog procesora PlayStation 3, nove generacije konzola za video igre od japanske tvrtke koja imao je težak zadatak ponoviti uspjeh svog prethodnika, najprodavanijeg u povijesti.

U prosincu 2006. godine Nvidia je primila citate Ministarstva pravosuđa SAD-a. S obzirom na moguća kršenja antitrustovske politike u industriji grafičkih kartica. U to vrijeme AMD je postao njegov veliki rival, nakon što je potonji kupio ATI. Od tada su AMD i Nvidia jedini proizvođači grafičkih kartica za video igre, ne zaboravljajući Intelove integrirane čipove.

Forbes je Nvidiju proglasio najboljom tvrtkom godine za 2007. godinu, navodeći postignuća u posljednjih pet godina. 5. siječnja 2007., Nvidia je objavila da je dovršila akviziciju PortalPlayer, Inc, a u veljači 2008. Nvidia je kupila Ageia, razvojnog inženjerskog odjela za fiziku PhysX i procesne jedinice za fiziku koja pokreće ovaj motor. Nvidia je najavila da planira integrirati PhysX tehnologiju u svoje buduće GeForce GPU proizvode.

Nvidia se suočila s velikim poteškoćama u srpnju 2008., kada je ostvarila pad prihoda od oko 200 milijuna dolara nakon što je objavljeno da su određeni mobilni čipseti i mobilni GPU-i koje proizvodi tvrtka imali nenormalne stope otkaza zbog proizvodnih nedostataka. U rujnu 2008, Nvidia je postala predmetom tužbe zbog klasične akcije onih koji su bili pogođeni, zbog tvrdnje da su neispravni GPU-ovi ugrađeni u određene modele prijenosnih računala koje proizvode Apple, Dell i HP. Sapunica je završila u rujnu 2010. godine, kada je Nvidia postigla dogovor da će vlasnicima pogođenih prijenosnih računala biti vraćen trošak popravka ili, u nekim slučajevima, zamjene proizvoda.

U studenom 2011., Nvidia je objavila svoj ARG Tegra 3 čip sustav za mobilne uređaje, nakon što ga je u početku predstavila na Mobile World Congress. Nvidia je tvrdila da je čip prvi četverojezgreni mobilni procesor. U siječnju 2013. Nvidia je predstavila Tegra 4, kao i Nvidia Shield, prijenosnu igračku konzolu sa sustavom Android koju pokreće novi procesor.

6. svibnja 2016. Nvidia je predstavila GeForce GTX 1080 i 1070 grafičke kartice, prve temeljene na novoj Pascal mikroarhitekturi. Nvidia je tvrdila da su oba modela nadmašila svoj model Titan X koji se temelji na Maxwellu. Ove kartice sadrže GDDR5X i GDDR5 memoriju, i koriste 16nm proizvodni postupak. Pascal arhitektura također podržava novu hardversku značajku poznatu kao simultana višestruka projekcija (SMP), koja je dizajnirana za poboljšanje kvalitete prikaza s više monitora i virtualne stvarnosti. Pascal je omogućio proizvodnju prijenosnih računala koja zadovoljavaju Nvidijin Max-Q standard dizajna.

U svibnju 2017., Nvidia je najavila partnerstvo s Toyota Motor Corp-om pod kojim će potonja koristiti Nvidijinu platformu umjetne inteligencije Drive X serije za svoja autonomna vozila. U srpnju 2017., Nvidia i kineski gigant pretraživanja Baidu, Inc. najavili su snažno AI partnerstvo koje uključuje računalstvo u oblaku, autonomnu vožnju, potrošačke uređaje i Baiduov AI okvir, PaddlePaddle.

Nvidia GeForce i Nvidia Pascal koji dominiraju igranjem

GeForce je robna marka za grafičke kartice na temelju jedinica za grafičku obradu (GPU) koje je Nvidia stvorila od 1999. godine. Do danas, serija GeForce poznata je šesnaest generacija od svog nastanka. Verzije usredotočene na profesionalne korisnike ovih kartica nalaze se pod imenom Quadro i sadrže neke značajke koje se razlikuju na razini vozača. Izravna konkurencija GeForce-a je AMD sa svojim Radeon karticama.

Pascal je kodno ime za najnoviju GPU mikroarhitekturu razvijenu od Nvidia koja je ušla na tržište videoigara, kao sljednik prethodne arhitekture Maxwell. Pascal arhitektura prvi je put predstavljena u travnju 2016. pokretanjem Tesla P100 za servere 5. travnja 2016. Trenutno se Pascal primarno koristi u seriji GeForce 10, a GeForce GTX 1080 i GTX su Prve 1070 karata za video igre izdane su s ovom arhitekturom, 17. svibnja 2016., odnosno 10. lipnja 2016. godine. Pascal se proizvodi primjenom TSMC-ovog procesa 16 nm FinFET, što mu omogućava da ponudi daleko superiornu energetsku učinkovitost i performanse u odnosu na Maxwell, koji je proizveden na 28 nm FinFET.

Pascal arhitektura je interno organizirana u ono što je poznato kao streaming multiprocesor ( SM), funkcionalne jedinice koje čine 64 CUDA jezgre, koje su zauzvrat podijeljene u dva procesna bloka od 32 CUDA jezgre svaki od njih i u pratnji međuspremnika, alata za planiranje osnove, 2 jedinice za mapiranje tekstura i 2 otpremne jedinice. Ovi SM diskovi ekvivalentni su AMD-ovim CU-ima.

Nvidijina Pascal arhitektura osmišljena je kao najučinkovitija i najnaprednija u svijetu igara. Nvidijin inženjerski tim uložio je mnogo truda u stvaranje GPU arhitekture koja je sposobna za vrlo velike brzine takta, istovremeno održavajući nisku potrošnju energije. Da bi se to postiglo, odabran je vrlo pažljiv i optimiziran dizajn u svim njegovim krugovima, što je rezultiralo time da je Pascal mogao dostići frekvenciju 40% veću od Maxwella, što je brojka mnogo veća nego što bi postupak dopuštao u 16 nm bez svih optimizacija na razini dizajna.

Memorija je ključni element u izvedbi grafičke kartice, GDDR5 tehnologija najavljena je 2009. godine, tako da je već postala zastarjela za danas najmoćnije grafičke kartice. Iz tog razloga Pascal podržava GDDR5X memoriju koja je u vrijeme lansiranja ovih grafičkih kartica bila najbrži i najnapredniji standard memorijskog sučelja u povijesti, dostižući brzinu prijenosa do 10 Gbps ili gotovo 100 picosekundi između bita. podataka. GDDR5X memorija također omogućava da grafička kartica troši manje energije u usporedbi s GDDR5, jer je radni napon 1, 35 V, u odnosu na 1, 5 V ili čak više nego što brži GDDR5 čipovi trebaju. Ovo smanjenje napona prevodi u 43% veću radnu frekvenciju s istom potrošnjom energije.

Druga važna Pascal-ova inovacija dolazi od tehnika kompresije memorije bez gubitka performansi, što smanjuje potražnju za propusnim opsegom od strane GPU-a. Pascal uključuje četvrtu generaciju delta tehnologije kompresije boja. Kompresijom delta boja, GPU analizira scene kako bi izračunao piksele čije se informacije mogu komprimirati bez žrtvovanja kvalitete scene. Iako Maxwell arhitektura nije bila u stanju komprimirati podatke koji se odnose na neke elemente, poput vegetacije i dijelova automobila u igri Project Cars, Pascal je u stanju komprimirati većinu informacija o tim elementima i na taj način bio mnogo učinkovitiji od Maxwell. Kao posljedica toga, Pascal je u mogućnosti znatno smanjiti broj bajtova koji treba izdvojiti iz memorije. Ovo smanjenje bajta prevodi u dodatnih 20% efektivne širine pojasa, što rezultira povećanjem propusnog opsega 1, 7 puta korištenjem GDDR5X memorije u usporedbi s arhitekturom GDDR5 i Maxwell.

Pascal također nudi važna poboljšanja u vezi s asinhronim računanjem, što je vrlo važno jer su radna opterećenja vrlo složena. Zahvaljujući ovim poboljšanjima, Pascal arhitektura je učinkovitija u raspodjeli tereta među svim svojim različitim SM jedinicama, što znači da gotovo da i nema neiskorištenih CUDA jezgara. To omogućava da optimizacija GPU-a bude puno veća, bolje iskorištavajući sve resurse koje posjeduje.

Sljedeća tablica sažima najvažnije značajke svih GeForce kartica temeljenih na Pascalu.

Karte NVIDIA GEFORCE PASCALNE GRAFIKE

CUDA jezgre Frekvencije (MHz) memorija Memorijsko sučelje Širina opsega memorije (GB / s) TDP (W)
NVIDIA GeForce GT1030 384 1468 2 GB GDDR5 64 bitni 48 30
NVIDIA GeForce GTX1050 640 1455 2 GB GDDR5 128 bit 112 75
NVIDIA GeForce GTX1050Ti 768 1392 4 GB GDDR5 128 bit 112 75
NVIDIA GeForce GTX1060 3 GB 1152 1506/1708 3 GB GDDR5 192 bit 192 120
NVIDIA GeForce GTX1060 6 GB 1280 1506/1708 6 GB GDDR5 192 bit 192 120
NVIDIA GeForce GTX1070 1920 1506/1683 8 GB GDDR5 256 bit 256 150
NVIDIA GeForce GTX1070Ti 2432 1607/1683 8 GB GDDR5 256 bit 256 180
NVIDIA GeForce GTX1080 2560 1607/1733 8 GB GDDR5X 256 bit 320 180
NVIDIA GeForce GTX1080 Ti 3584 1480/1582 11 GB GDDR5X 352 bit 484 250
NVIDIA GeForce GTX Titan Xp 3840 1582 12 GB GDDR5X 384 bit 547 250

Umjetna inteligencija i Volta arhitektura

Nvidijini GPU-ovi naširoko se koriste u područjima dubokog učenja, umjetne inteligencije i ubrzane analize velikih količina podataka. Tvrtka je razvila duboko učenje temeljeno na GPU tehnologiji, kako bi se koristila umjetna inteligencija za rješavanje problema poput otkrivanja raka, prognoziranja vremena i vozila s autonomnim upravljanjem, poput poznatog Tesle.

Nvidijin cilj je pomoći mrežama da nauče "misliti ". Nvidijini GPU-ovi izuzetno dobro rade za zadatke dubokog učenja jer su dizajnirani za paralelno računanje, a oni dobro rade na vektorskim i matričnim operacijama koje prevladavaju u dubokom učenju. Tvrtke GPU koriste istraživači, laboratoriji, tehnološke tvrtke i poslovna poduzeća. 2009. godine Nvidia je sudjelovala u nečemu što se naziva velikim praskom za duboko učenje jer su neuronske mreže dubokog učenja kombinirane s jedinicama grafičke obrade tvrtke. Iste godine, Google Brain je koristio Nvidijine GPU-ove za stvaranje dubokih neuronskih mreža sposobnih za strojno učenje, gdje je Andrew Ng utvrdio da mogu povećati brzinu sustava dubokog učenja za 100 puta.

U travnju 2016., Nvidia je predstavila superračunalo DGX-1 s 8-GPU klastera radi poboljšanja sposobnosti korisnika za korištenje dubokog učenja kombinirajući GPU-ove sa posebno dizajniranim softverom. Nvidia je također razvila GPU-ove Nvidia Tesla K80 i P100 virtualne strojeve, dostupne putem Google Cloud-a, koji je Google instalirao u studenom 2016. Microsoft je dodao dodatke poslužitelja koji se temelje na Nvidijinoj GPU tehnologiji u pregledu svoje N serije, temeljen na Tesla K80 kartici. Nvidia je također surađivala s IBM-om u stvaranju softverskog kompleta koji povećava AI mogućnosti njegovih GPU-a. 2017. godine Nvidijini GPU-ovi predstavljeni su i putem interneta u RIKEN centru za napredni inteligencijski projekt za Fujitsu.

U svibnju 2018., istraživači iz odjela za umjetnu inteligenciju Nvidi a shvatili su mogućnost da bi robot mogao naučiti raditi posao jednostavnim promatranjem osobe koja radi isti posao. Da bi to postigli, stvorili su sustav koji se, nakon kratkog pregleda i ispitivanja, sada može koristiti za kontrolu univerzalnih robota nove generacije.

Volta je kodno ime za najnapredniju mikroarhitekturu GPU-a koju je razvila Nvidia, to je Pascalova nasljednica arhitekture i najavljeno je kao dio buduće ambicije mape puta u ožujku 2013. Arhitektura je dobila ime po Alessandru Volti, fizičar, kemičar i izumitelj električne baterije. Volta arhitektura nije dosegla sektor igara, iako je to učinila grafičkom karticom Nvidia Titan V, fokusiranom na potrošački sektor i koja se također može koristiti u igračkoj opremi.

Ova Nvidia Titan V je GV100 bazirana grafička kartica i tri HBM2 memorijska snopa, sve u jednom paketu. Kartica ima ukupno 12 GB HBM2 memorije koja djeluje preko 3072-bitnog memorijskog sučelja. Njegov GPU sadrži preko 21 milijuna tranzistora, 5.120 CUDA jezgara i 640 tenzorskih jezgara za postizanje 110 TeraFLOPS performansi u dubokom učenju. Njegove radne frekvencije su 1200 MHz u bazi i 1455 MHz u turbo načinu rada, dok memorija radi na 850 MHz, nudeći propusnost od 652, 8 GB / s. Nedavno je najavljena verzija CEO izdanja koja povećava memoriju do 32 GB.

Prva grafička kartica koju je Nvidia proizvela s Volta arhitekturom bila je Tesla V100, koja je dio Nvidia DGX-1 sustava. Tesla V100 koristi jezgru GV100 koja je objavljena 21. lipnja 2017. Volta GV100 GPU ugrađen je u 12nm FinFET proizvodni proces , sa 32 GB HBM2 memorije koja može isporučiti do 900 GB / s propusnog opsega.

Volta također oživljava najnoviji Nvidia Tegra SoC, nazvan Xavier, koji je najavljen 28. rujna 2016. Xavier sadrži 7 milijardi tranzistora i 8 prilagođenih ARMv8 jezgara, zajedno s Volta GPU-om s 512 CUDA jezgara i TPU-om od open source (Tensor Processing Unit) nazvan DLA (Deep Learning Accelerator). Xavier može kodirati i dekodirati video u 8K Ultra HD rezoluciji (7680 × 4320 piksela) u stvarnom vremenu, a sve s TDP-om od 20-30 vata i veličinom matrice koja se procjenjuje na oko 300 mm2 zahvaljujući 12 proizvodnom procesu. nm FinFET.

Volta arhitekturu karakterizira to što je prva uključila Tensor Core, jezgre posebno dizajnirane da nude mnogo superiorne performanse u zadacima dubokog učenja u usporedbi s uobičajenim CUDA jezgrama. Tensor jezgra je jedinica koja množi dvije FP16 4 × 4 matrice, a zatim dodaje treću FP16 ili FP32 matricu rezultatu, koristeći spajane operacije dodavanja i množenja, dobivajući FP32 rezultat koji se po želji može smanjiti na FP16 rezultat. Tenzorska jezgra namijenjena su ubrzanju treninga neuronske mreže.

Volta se također ističe po tome što uključuje napredno vlasničko NVLink sučelje, komunikacijski protokol utemeljen na žicama za komunikacije poluvodiča kratkog dometa koji je razvila Nvidia, a koji se može koristiti za prijenos podataka i upravljanje u procesorskim sustavima na temelju CPU i GPU i one bazirane isključivo na GPU-u. NVLink specificira vezu od točke do točke sa brzinom podataka od 20 i 25 Gb / s po podatkovnom traku i po adresi u svojoj prvoj i drugoj verziji. Ukupne brzine podataka u stvarnim sustavima su 160 i 300 GB / s za ukupan zbroj ulaznih i izlaznih tokova podataka. NVLink proizvodi predstavljeni do danas fokusiraju se na aplikacijski prostor visokih performansi. NVLINK je prvi put najavljen u ožujku 2014. i koristi vlasničko povezivanje velike brzine signalizacije koje je razvila i razvila Nvidia.

Sljedeća tablica sažima najvažnije značajke Volta kartica:

GRAFIČKE KARTICE NVIDIA VOLTA

CUDA jezgre Core tenzor Frekvencije (MHz) memorija Memorijsko sučelje Širina opsega memorije (GB / s)

TDP (W)

Tesla V100 5120 640 1465 32 GB HBM2 4.096 bit 900 250
GeForce Titan V 5120 640 1200/1455 12 GB HBM2 3.072 bit 652 250
GeForce Titan V CEO Edition 5120 640 1200/1455 32 GB HBM2 4.096 bit 900 250

Budućnost Nvidije prolazi kroz Turing i Ampere

Dvije buduće Nvidijine arhitekture bit će Turing i Ampere prema svim glasinama koje su se pojavile do danas, moguće je da ćete, kada pročitate ovaj post, neke od njih već službeno objaviti. Zasad se za ove dvije arhitekture ništa sigurno ne zna, premda se kaže da bi Turing bio pojednostavljena verzija Volta za tržište igara, zapravo se očekuje da će s istim proizvodnim procesom stići u 12 nm.

Ampere zvuči kao Turingova nasljednica, iako bi mogao biti Volta nasljednik u sektoru umjetne inteligencije. O tome se apsolutno ništa ne zna, iako se čini logičnim očekivati ​​da će ona biti proizvedena u 7 nm. Glasine sugeriraju da će Nvidia svoje nove GeForce kartice objaviti na Gamecomu u sljedećem mjesecu kolovoza, tek tada ćemo ostaviti sumnje o tome kakav će biti Turing ili Ampere, ako zaista nastanu.

NVIDIA G-Sync, završava poteškoće sa sinkronizacijom slike

G-Sync je vlasnička adaptivna tehnologija sinkronizacije koju je razvila Nvidia, a čiji je primarni cilj uklanjanje razbijanja zaslona i potreba za alternativama u obliku softvera poput Vsync. G-Sync eliminira kidanje ekrana prisiljavajući ga da se prilagodi okviru izlaznog uređaja, grafičke kartice, a ne da se izlazni uređaj prilagodi zaslonu, što rezultira oštećenjem slike ekran.

Da bi monitor bio kompatibilan sa G-Sync, mora sadržavati hardverski modul koji prodaje Nvidia. AMD (Advanced Micro Devices) objavio je sličnu tehnologiju za prikaze, nazvanu FreeSync, koja ima istu funkciju kao i G-Sync, ali ne zahtijeva nikakav određeni hardver.

Nvidia je stvorila posebnu funkciju kako bi izbjegla mogućnost da je novi okvir spreman dok crta duplikat na ekranu, nešto što može stvoriti kašnjenje i / ili mucanje, modul predviđa ažuriranje i čeka da se sljedeći kadar dovrši. Preopterećenje piksela također postaje neispravno u scenariju nefiksirane nadogradnje, a rješenja predviđaju kada će se dogoditi sljedeće ažuriranje, pa se za svaku ploču mora implementirati i prilagoditi vrijednost overrive kako bi se izbjegao duhovni efekt.

Modul se temelji na FPGA obitelji Altera Arria V GX s 156K logičkim elementima, 396 DSP blokova i 67 LVDS kanala. Proizvodi se u postupku TSMC 28LP i kombinira se s tri čipa za ukupno 768 MB DDR3L DRAM-a kako bi se postigla određena propusnost. FPGA koristi i LVDS sučelje za kontrolu ploče monitora. Ovaj modul zamišljen je da zamijeni uobičajene penjače i da ih lako integriraju proizvođači monitora, koji trebaju samo voditi računa o pločici za napajanje i ulaznim vezama.

G-Sync se suočio s nekim kritikama zbog svoje vlasničke prirode i činjenice da se i dalje promovira kada postoje besplatne alternative, poput VESA Adaptive-Sync standarda, koji je neobavezna značajka DisplayPort 1.2a. Dok se AMD-ov FreeSync temelji na DisplayPort 1.2a, G-Sync zahtijeva da modul izrađen od Nvidia umjesto uobičajenog zaslonskog skalera za grafičke kartice Nvidia GeForce radi ispravno, kompatibilan s Keplerom, Maxwellom, Pascalom i mikroarhitekturama. Volta.

Sljedeći je korak napravljen s G-Sync HDR tehnologijom koja, kako mu i samo ime govori, dodaje HDR mogućnosti za značajno poboljšanje kvalitete slike monitora. Da bi se to učinilo, morao se napraviti znatan skok u hardveru. Ova nova verzija G-Sync HDR koristi Intel Altera Arria 10 GX 480 FPGA, visoko napredni i vrlo programirajući procesor koji se može kodirati za širok raspon aplikacija, a prati 3 GB DDR4 memorije od 2400 MHz DDR4 proizvedene od Microna, Zbog toga je cijena ovih monitora skuplja.

Ovdje završava naš post o svemu što morate znati o Nvidiji. Imajte na umu da ga možete dijeliti na društvenim mrežama tako da dosegne više korisnika. Također možete ostaviti komentar ako imate neki prijedlog ili nešto dodati.

Android

Izbor urednika

Back to top button