Pojačalo podcast možete gledati na Youtube-u i Facebook-u, a slušati na SoundCloud-u, Spotify-u, -u, na Apple i Google podcasts.

Audio zapis razgovora:

Transkript razgovora:

Ivan Minić: Dobrodošli u Pojačalo specijal koji realizujemo sa našim prijateljima iz kompanije NextSilicon. U ovoj epizodi pričamo sa Markom Skakunom, koji je AI Team Lead u beogradskoj kancelariji NextSilicona. Marko, dobro mi došao.

Marko Skakun: Bolje vas našao. Hvala na pozivu.

Ivan Minić: Šta znači AI Team Lead konkretno u NextSiliconu?

Marko Skakun: Pa da, ja vodim tim koji razvija graph compiler za AI. Sad šta je graph compiler za AI… Ovaj, u AI-ju je trenutno, pogotovo sa hardverskim akceleratorima, postalo sada norma da se praktično optimizuje sam AI model pre nego što se pusti klasičnom kompajleru, da kažem, ovaj, da ga normalno kompajlira. Ovaj, tako da je tako i ovde, mi imamo već neki kompajler koji se koristi za HPC, dakle za ovaj ono što većina kompanije da kažem razvija, ali sad i za AI takođe ovaj imamo taj graph compiler koji je iznad tog HPC kompajlera i radi neke dodatne optimizacije koje su specifične za AI. Zato što je drugačiji workload od HPC-a i imaju neke pretpostavke.

Ivan Minić: Pričaćemo detaljnije o tome posle i kako je uopšte došlo do potrebe za svim tim i zašto danas, kada imamo više snage nego što smo ikad imali, zahtevi su opet eksponencijalno veći, tako da na mnogo mesta, u mnogo različitih slojeva je potrebno napraviti optimizaciju da bi na kraju taj rezultat bio nešto što je optimalno i može da se izvrši u sa nekim razumnim resursima i u nekom razumnom vremenu. Ali kako smo uopšte došli do današnjeg stanja stvari? Kako je ono što kažemo kompjuterska snaga, computational power, šta je to bilo kroz vreme i kako se menjalo?

Marko Skakun: Da, pa evo ovako neki pregled da kažem, mislim svi znamo, krenulo se od nekih CPU-ova koji su ono generički compute unit koji može da izvrši proizvoljan kod, može da se koristi za bilo šta, mislim svi imamo ovaj CPU da kažem u džepu i ovaj tako dalje. Ovaj, međutim onda kako su počeli da se pojavljuju neki specifični zadaci, koji su se ponavljali, onda je počela specijalizacija neka da kažem. Pojavili su se onda GPU-ovi, to sad ono isto svi znamo Nvidia, znaš GPU-ovi, igrice i to je nekako prešlo i u AI, da se koriste ti GPU-ovi koji su onako specifičnija mašina od CPU-a, pravljena specifično za neke paralelne zadatke gde ovaj imamo mnogo podataka nad kojima se radi isti neki kompjut. Ovaj, do čak s neke druge strane spektra ovaj su se pojavili i ASIC-i takozvani, to neki znaju iz mining industrije, neki znaju recimo algoritam za kompresiju videa. Recimo je dosta komplikovan i zahtevan algoritam, ako bi se izvršavao na CPU trošio bi dosta struje i tako dalje, tako da je napravljen bukvalno hardverski, hardverska implementacija tog algoritma koja daleko manje troši struje. Ovaj, tako da ide se čak i u to, čak sad i za ono AI za neke modele prave ono ASIC koji radi samo jedan model, ali to je ultra rigidno. Tako da tu sad ima ta neka skala od ono ultra fleksibilnog, ali neperformantnog i neefikasnog do nečeg ultra nefleksibilnog ovaj, ali ultra performantnog. Znači od tog nekog CPU-a preko GPU-a do ovaj do do ASIC-a. Ovaj, tako da i u svim zadacima je tako nekako išlo da kažem, prvo se nešto implementira na CPU, pa onda počnu da se pojavljuju sve specijalnija i specijalnija ovaj, manje fleksibilna rešenja. Tako da ovaj za za AI da kažem sad imamo ceo taj spektar već.

Ivan Minić: Ali da kažem suština od koje negde jesmo krenuli je da imaš čip koji bi trebalo da radi sve poslove koji ti trebaju, što znači da nijedan od njih ne radi optimalno brzo, efikasno, bez obzira na to što što smo imali tu ovaj je li i Murov zakon i sve, da se snaga procesora povećavala, duplirala na svakih je li dve godine ili kako već beše, i da je to bilo jedno pravilo koje je bilo na snazi više decenija, ali da jednostavno i iako je to raslo, zahtevi su suštinski rasli još više.

Marko Skakun: Da, da. Pa mislim udari se u zid kako da kažem. Mislim CPU-ovi ono već već neki niz godina nisu više po Murovom zakonu u tom smislu da ono single core performans raste ovaj toliko brzo i onda mislim to jeste glavna motivacija za ta neka specifičnija rešenja kao na primer GPU, pa onda i kad mislim i GPU-ovi sad polako dolaze u neku saturaciju ovaj koji performans zapravo mogu da dostave po vatu struje koju troše. To je isto dosta ono bitna jedna metrika. Mahom ljudi kad razgovaraju o o performansy pričaju ono performans koliko ovaj je generalno moćan, a ne razgovara se o potrošnji struje, a to je ono na data centar nivou jako bitno. Ovaj, tako da i GPU-ovi sad isto udaraju u taj neki zid, a mislim i onda sad ASIC-i su nešto što je ono kao ima bolji bolji performans i to je nešto što je da kažem hajde najdalje što možemo da dobacimo, ali toliko nefleksibilno da se ne isplati, tako da tu je sad ovaj pitanje da kažem mogućnosti uopšte da da sad za neki zadatak to pravimo jer nije fleksibilno. I mislim opada fleksibilnost kako kažem. CPU-ovi su jedini generički, mogu da izvrše bilo koji zadatak. GPU-ovi isto mogu da izvrše manje više koji bilo koji zadatak, ali postanu neperformantni na nekim zadacima. Ovaj, ASIC-i mislim imaju bukvalno jedan algoritam, to je ono čip koji radi jednu stvar. Tako da ovaj to.

Ivan Minić: A kako su se menjali sami zadaci? Kako su se menjale potrebe?

Marko Skakun: Da, pa mislim ja sad znam ovde da kažem u AI-ju, to je ovaj jedan delić da kažem ono kompjuta koji postoji. Ovaj, ali nekako ide se sve više ka tome da, mislim u AI-ju pogotovo, ovaj ide se sve više ka tome da je sve više, modeli su sve veći, sve više parametara, ovaj i onda se gleda da se pravi ta neka paralelizacija. Znači što više da kažem ili GPU-ova ili nekih drugih uređaja da se u isto vreme koriste ovaj da se što veći model pokrene, jer onda taj veći model može da ima bolji ono kvalitet na koji smo sad već navikli ovaj odgovora i tako dalje. Tako da ovaj to je da kažem taj neki trend u AI-ju.

Ivan Minić: Hajde mi daj malo istoriju, mislim Chat GPT je postao popularan u trenutku kada je ne znam izašla verzija 3.5, pa je verzija 4.0 bila big deal, pa je 5.0, 5.1, 5… šta sada. Prosto te su se stvari dešavale, međutim to je samo vrh ledenog brega i to je ono kada je to postalo iz ugla prosečnog korisnika izuzetno dobro, izuzetno jednostavno za korišćenje, iz ugla opet prosečnog korisnika izuzetno pouzdano u smislu toga da će kvalitet odgovora biti dobar. Ali naravno postoji mnogo godina razvoja pre toga da bismo došli do nečega takvog. Ja sam o neuronskim mrežama čitao početkom 2000-ih i bilo mi je super interesantno, ali tada smo uglavnom čitali teoretske studije o tome kako bi to moglo da funkcioniše jednog dana kada budemo imali resurse za to. Sad imamo resurse za to, pa kao šta se dešavalo i kako se dešavalo kroz vreme ključne stvari?

Marko Skakun: Da, da, pa to je jako bitna istorija jer nekako su svi tek u poslednje vreme čuli ono AI, veštačka inteligencija i susreli se s tim sa onim.

Ivan Minić: I izjednačavaju AI sa generativnom veštačkom inteligencijom.

Marko Skakun: Tako je, tako je. A tu je sad ono kad bi se teorijski to gledalo, AI je jako širok pojam u stvari, zahvata čak i ono neke sisteme koji su ono ako ovo onda ono, znaš neki ekspertski sistemi koji uopšte nisu. Tako da ono pod kategorija AI-ja generalno je Machine Learning, koji je isto nastao, to je ono bukvalno neke statističke metode koje su bile ono i pre 2000-ih. Ovaj, onda posle toga se razvio da kažem neuralne mreže, to što si spomenuo, i te neuralne mreže su inicijalno bile jako male, imale su samo taj jedan sloj kao neurona. Ovaj, i mislim kad se to posmatra zapravo matematički to je ono jedno matrično množenje samo. Ovaj, relativno jednostavan model da kažem. Ovaj, jer nisu mogli da da treniraju nešto što je veće, što ima više slojeva. Tako da se on to je dosta davno, to je sad već što kažeš tamo negde 2000-ih recimo. Ovaj, a onda jedan veliki korak se desio kada se došlo do Deep Learninga. Znači to je sad sve podoblast, podoblasti. Znači ono AI, Machine Learning, Neural Nets, Deep Learning. Ovaj, šta je Deep Learning? Deep Learning je kad su uspeli da sastave neuralnu mrežu koja ima više slojeva. Ovaj, tu imaju neki problemi sa treningom i tako dalje, da ne ulazimo sad tu u detalje, ali to je bio da kažem možda AlexNet onako 2012. ja mislim da je prvi onako ozbiljni ovaj Deep Learning model koji koji je napravljen. On je korišćen bio za onu klasifikaciju slika. Znači ono da li je na slici kuče, mače, to je onako prvi ovaj neki onako iskorak veći. I ovaj, i onda je tu da kažem se onako razgranala velika veliki broj nekih oblasti da kažem. Možda ovaj najinteresantnije su tada barem bile u tom nekom periodu od 2012. pa na dalje su bile konvolucione neuralne mreže. Šta one rade? One rade kompjutersku viziju. To je znači nekakve obrade nad slikom. Ne znam što je poznato ljudima, ne znam, možda neki kao self driving automobili, oni ono imaju neke kamere koje gledaju put i onda na osnovu toga nešto zaključuju ili tako neki modeli da kažem. To je ovaj možda najšira primena ili generalno sve ove stvari koje imamo neke filtere na na kamerama i to, to je sve isto neka konvoluciona neuralna mreža. Tako da je taj jedan period dosta su bili ti modeli onako u ekspanziji i mislim i AlexNet sam po sebi je isto ovaj. Tako da to je jedan veliki bio pomak i mislim tu u paraleli je bilo dosta drugih nekih ono modela na primer i reinforcement learning za robote, za generalno automatsko upravljanje, to je jedna oblast druga. Ima tu sad raznih ovaj, ali da kažem te konvolucije su nekako komercijalno bile možda najvidljivije. Ovaj, dok se nije pojavio taj Transformer model. Sad Transformer model je neka arhitektura, nije sad toliko bitno, ali ono koristi se najviše za Large Language modele. Tad je izašao ne znam GPT 1 recimo, ovaj i taj neki paper koji se zove “Attention is All You Need” i ceo taj mehanizam ono attentiona koji je u Transformerima ovaj ključna neka ideja. Ovaj, je napravila neku promenu. Znači šta je tu sad suština te promene je ne samo sad to je neka nova arhitektura koja sad tu nešto drugo radi, nego ono ispod haube da kažem toga svega, na konvolucionim neuralnim mrežama glavna operacija koja se izvršava je konvolucija. To je neki tip matematičke operacije. I onda je bila recimo u tom trenutku veliki broj hardvera, akceleratora je svi su nekako bili u fokusu na to, na tim. Tako da je onda sad to bitna isto prekretnica kad dolazimo do ovih Transformera da tu sad nije više konvolucija nego je ne znam matrično množenje, ali neka druga operacija koja nije prosto prenosiva. Što je jedna stvar. I onda na kraju da kažem sad imamo taj GenAI, svi ga zovu AI, a to je u stvari GenAI kao Generative AI. Ovaj, to je jedna ono velika promena paradigme sad iz više razloga, iz ono možda šta je nama kao ono kompaniji koja pravi hardverske akceleratore interesantno, to je ovaj što su to ono veliki modeli koji zahtevaju veliki kompjut. Ovaj, ali šta je tu jedna suštinska razlika koja je ja mislim otključala ono mogućnost da svi to koriste, da da to ima toliko primena, je što do tačke tih do tačke GenAI-ja svako ko je hteo da napravi neki proizvod koji ima AI je morao sam da prikupi podatke, sam da trenira svoj model, sam da nađe ne znam grafičke, da smisli arhitekturu ili da iskoristi nešto gotovo. A sa pojavom GenAI-ja to se promenilo. Nekako nastali su ti ogromni modeli koji su na trenirani unapred ovaj i znaju da kažem hajde da rade sve u neku ruku. Ovaj, a onda kada želimo da napravimo aplikaciju samo mu kažemo šta da radi. Znači kao što svi dođemo Chat GPT-ju kažemo e ne znam pojednostavi mi ovaj tekst, skrati ga i on to uradi. A onda mu sutra kažemo ne znam napravi mi tabelu od ovoga i on napravi tabelu. Sad ja ne moram da uzmem svoj AI model, podatke, pa da ga treniram, pa da to sve plaćam, nego je dovoljno samo da mu kažem e uradi ovo. Ovaj, i što je onda onako otključalo jednu eksploziju aplikacija toga. Ovaj, e a mislim u pozadini zahteva da taj model bude u stanju zapravo da radi sve neke stvari. To je onako neka zanimljiva ovaj. I još jedna velika stvar koja se tu desila, mislim to sam rekao par puta da je ono eksplodirao je broj, veličina tog modela je eksplodirala. Ovaj, zašto to je sad isto jedan bitan trenutak kad se pojavio GenAI, šta je možda glavna stvar koju su shvatili, to je neki talas na kom smo još uvek, znači to je sad već 5-6 godina smo na tom talasu, taj talas je takozvani Scaling laws, to jest zakon i skaliranja da kažem. Ovaj, gde su shvatili da povećanjem veličine modela, povećanjem broja parametara koji taj model ima, skalira se performans u nedogled. Znači oni su probali ono ne znam puta 10 veći model, puta 100 veći model. Obično u u AI-ju se dođe do tog problema overfitovanja, gde ono model bude veći od problema i onda nauči napamet sve primere u treningu, a onda u testu se ne snalazi uopšte. Nekako samo nauči onaj trening set napamet, ne generalizuje kako treba. A ovde se nekako pokazalo da su podaci toliko veliki, znači ono ceo internet teksta, da ovaj prosto koliko god parametara da se baci na taj problem poboljša se performans. Znači nema taj problem overfitinga gde počne da opada performans. I eto od tad ono ne znam 2019, 20, 21. možda ne znam ni ja ovaj je počeo počeo taj scaling ono laws. Svi su gledali da natreniraju što veći i veći model jer to je siguran način da se dobije bolji performans. Nema nikakvog rizika u tom nekom smislu ovaj da sad se radi neki research pa to možda uspe, možda ne uspe. Ovaj, nego samo svi gledaju ono kao napravićemo 10 puta veći model sa 10 puta više grafičkih i dobićemo ne ne… i mislim to je i dalje u neku ruku tačno da kažem, taj scaling laws i dalje važe. Što je ovaj možda mislim to je u jednom paperu ono objavljeno i to je onako možda jedna seminalna stvar koja je izazvala celu ovu stvar oko Nvidie, oko što većih modela, oko GenAI-ja i tako to je.

Ivan Minić: Hoću jednu stvar da te pitam, a u u nekoj meri si dao odgovor, ali mislim da može da bude interesantno. Dakle, kada smo prvi put dobili pristup nekim API-jevima ili SDK-ovima za to kompjuter vižn prepoznavanje objekata na slici i tako dalje, to nije radilo savršeno, ali je i dalje bilo impresivno u odnosu na ništa što je bilo pre toga. Ali ono što što smo vrlo brzo dobili i vrlo brzo videli je da jako dobro napreduje. I da ti imaš mogućnost da ne znam prepozna na slici na kojoj je nekoliko objekata, prepozna svaki od njih i kaže sa kojim procentom tačnosti on misli da je to tako. I u suštini u osnovi svega u većini ovih stvari jeste neka izuzetno napredna statistika. Imamo dva dela problema, dva dela priča. Jedan je učenje modela, drugi je posle eksploatacija toga svega. I OK, sada imamo modele koji kontinuirano uče i dopunjavaju se, ali na koji način to menja hardverske potrebe koje industrija ima? Šta je to što je specifično toliko u tim operacijama da rešenja koja su do tada radila ne rade dovoljno dobro?

Marko Skakun: Pa da, mislim kako kažem ova rešenja koja imamo sad, imamo sad i ono rade ljudi s tim šta može da se radi naravno i mislim ima imamo neki performans, mislim sve ovo što smo postigli smo postigli kako kažem. Nije nije ovaj, ali mislim gde se sada fokus kako kažem trening na treningu u tom učenju modela, to su fokusirane ogromne kompanije koje se bave treningom, a njih ima relativno malo da kažem. Mislim sad ono imamo ne znam OpenAI, Anthropic, ne znam Metu i tako dalje. Ovaj i to je onako fokusirano i smanjeno. Nije kako kažem nije ceo komjuniti uključen u trening tih modela. I ovaj i ima nekih svojih specifičnih problema taj trening, zato što je potrebno ne znam ogromnu tu količinu pod… mislim bukvalno ceo internet teksta je potrebno propustiti kroz model da ovaj da nauči. Tako da cela ta ono orkestracija tog treninga znači kako rasporediti podatke na toliko divajsova, modela i tako dalje je problem za sebe, ali je nekako problem koji na koji je fokusiran jedan da kažem manji deo tržišta jer interesuje samo ove koji treniraju model. A sad pošto je GenAI toliko da kažem rasprostranjen, ovaj za taj inference da kažem, za korišćenje modela, za pristup modelu je sad ima neka ta eksplozija da kažem potrebe za tim. Ovaj gde onda sada ima gomila manjih kompanija koje se bave ono serviranjem tih modela ovaj serviranjem modela ovaj korisnicima, pogotovo što ima primera gde su podaci osetljivi, gde ljudi moraju sami svoj model da serviraju ili da gde je privatnost bitna i tako dalje. Ovaj onda da kažem ta strana je sad u nekom komjunitiju dosta razvijenija i onda sad tu ima dosta nekih ljudskih ovaj optimizacija koje su sad mislim ovo na čemu ja radim graph compiler je jedan deo toga koji je koristan da kažem i za trening i za inference. Ali iznad toga ima još ne znam frejmvorkci u kojima pišu ljudi modele, pa onda u kojima pišu orkestraciju na više ono divajsova, pa onda hostovanje toga za gomilu korisnika. Ovaj kompleksnost tog celog steka je postala baš ogromna u poslednjih par godina. Nekako se to sve dosta onako ubrzalo ovaj zbog mislim velikog broja korisnika koji su spremni da plate prosto ovaj za korišćenje tih modela. Ovaj i mislim svi koristimo neki oblik GenAI-ja sada, a to su ogromni modeli. Mislim sad kad se razmisli ne znam Chat GPT sad ima ne znam koliko jedan i po trilion parametara ono to je jedan i po terabajt samo ili tri zapravo terabajta samo parametara, jedan model mislim to je baš baš ogromna količina.

Ivan Minić: Ono što isto mislim da je da je interesantno kada imaš situaciju da da radiš i da koristiš nešto što je cutting edge, što realno istorijski uglavnom nije bio slučaj sa krajnjim korisnicima. Prosečna osoba je vrlo retko koristila tehnologiju koja je cutting edge. Što sada imamo slučaj da ovaj na dnevnom nivou. A ono čime se vi primarno bavite kao firma jeste razvoj hardvera koji je preduslov da softver može da radi sve to što tre… odnosno da zajedno mogu da rade sve što treba da rade. Ali razvoj hardvera je po mnogo čemu značajno kompleksniji od razvoja softvera. OK, postoji softver koji je takođe izuzetno zahtevan, napredan i sve ostalo, ali kad kažeš da ne znam ima neka softveraška kompanija kod njih je sve to dosta jednostavnije, brže, mnogo brže može da se testira, mnogo brže mogu da se menjaju verzije i slično. Posebno za za nešto što je za upotrebu za generalnu populaciju, nije za naučnu upotrebu, nije za upotrebu u nekim izuzetno kompleksnim okolnostima. Kada pričamo o hardveru, suštinski mi sve što dođe do nas kao korisnika, što koristimo je zastarelo u trenutku kada dođe kod nas. Odnosno ako pričamo o tome kao ovaj nekom procesu, to je skuvano mnogo meseci pre nego što je stiglo do nas, obično nekoliko godina. Tako je, da. Kako ti gledaš na to i kako vi kao kompanija gledate da se uključite u tu trku?

Marko Skakun: Tako je, tako je. Mislim tu sad se javlja jedan jedinstven problem da kažem neki period od da kažem ideje za pravljenjem nekih nekog čipa do trenutka kada je taj čip proizveden i može ono da se uključi u struju prođe otprilike ne znam tri godine, dve godine, tri godine. Zavisi ko je koliko agilan, ali ne mnogo kraće.

Ivan Minić: Za najveće igrače prođe tri godine.

Marko Skakun: Da, da, da, znači ne mnogo kraće od toga naravno, mislim jer mnogo koraka ima u tom procesu. Ovaj a mislim jedan podatak zanimljiv je recimo Chat GPT kad je izašao kao aplikacija je za par meseci, ne znam da l’ za dva, tri meseca došao do 100 miliona korisnika. Znači to je sad kako da kažem u jednom mesecu nemamo Chat GPT, za tri meseca imamo Chat GPT i to je ono najveća stvar koju ljudi žele da koriste. A neko ko je razvijao hardver, ako mu tad padne na pamet da pravi čip za to, tek za tri godine će moći da ponudi nešto. Tako da je jako teško mislim nemoguće predvideti budućnost u tom smislu i onda je jako komplikovano napraviti neki čip koji će da bude kompetitivan u trenutku u kom izađe na tržište. Jer prosto vreme prihvatanja novih tehnologija je sada jako jako brzo. Znači kad se gleda ono ne znam koliko je brzo internet prihvaćen pa onda mobilni telefoni. To je nekako bilo na toj nekoj skali u kojoj je vreme razvoja čipa bilo moguće da prati to sve, a sad sa ovim AI i mislim ovim softverskim stvarima to je ono gotovo nemoguće. Ovaj tako da gomila firmi i startapa se u neku ruku kladi da ono što je sad aktuelno da će da bude aktuelno za te tri godine kada uspeju da naprave neki hardver. Ovaj i mislim to je bio slučaj zašto sam isto pričao za one konvolucije i za ove Transformere. Recimo dok su bile te konvolucione neuralne mreže, veliki broj startapa se fokusirao samo na to kako kažem, pravili su specifična rešenja koja su za konvolucione neuralne mreže, za ono kompjuter vižn i za to. I pravili su hardver i u trenutku kom se eto taj Chat GPT pojavio i dobio ne znam 100 miliona korisnika, to je postalo u suštini obsolete da kažem. Na na tim čipovima nije bilo moguće efikasno pokrenuti ovaj. Mislim sad jedna od kompanija koja je uspela dobro da pogodi da kažem kretanje tržišta je Nvidia i sad zato su oni najveća ono kompanija na svetu ili tu negde u vrhu. Ovaj tako da to je jako jedan težak problem. E sad mi u NextSiliconu baš to nekako želimo da da pogodimo. Znači želimo da napravimo čip koji je dovoljno fleksibilan i adaptabilan da može zapravo da se adaptira manje više kakva god promena da se desi u u u AI-ju i generalno ovaj u tim potrebama, ono ne pokušavamo da napravimo nešto što je ultra specijalizovano za trenutnu arhitekturu. I nekako to je što je NextSilicon radio u HPC-ju, glavna ideja je bila to da bude fleksibilno i adaptabilno rešenje, da koji god kod neko napiše u u HPC-ju da može zapravo da se izvrši na tom hardveru. Nekako je to sada postalo možda i bitnije u AI-ju gde je to sad da kažem vreme promene dosta brže. I ne znamo šta će da se desi, mislim ne sad kažu svi AI bubble će da pukne ili nešto će veliko da se promeni, novi model, nova neka ideja, nešto. Tako da ovaj to je neka ideja NextSilicona da kažem da da proba da napravi čip koji je generički da kažem, koji je spreman na te promene.

Ivan Minić: Mislim da je da je jedna jako važna stvar sa ovom revolucijom kojoj sada prisustvujemo zapravo to da je onog trenutka kada je to bilo spremno za masovnu upotrebu, ulazna barijera za ljude bila najniža moguća. Jer ti sada prvi put suštinski prvi put pričaš sa svojim računarom i možeš da pričaš sa njim na jeziku koji je tebi, pa sad verovatno će te se razumeti, ako se baš ne razumete on će te pitati pa ćete kroz neku vrstu uobičajene human to human interakcije doći do nečega. Do toga da zapravo možete da pričate ono. Jedna od stvari koju ja često radim u kolima je da pričam sa Chat GPT-jem o nečemu što mi je u tom trenutku važno da uradi neki research, da ne moram da da kucam. I to što ja dobijem nazad taj ono text to speech zvuči više nego prihvatljivo, zapravo može da se sluša, nije nije naporan. E sad, ono što što mi je bilo interesantno od prvog dana kada sam se uputio u ovu celu priču jeste to da možda neko može da pomisli zbog ovoga što si rekao da sada vi suštinski pravite general purpose čip, ali to jeste donekle tačno u smislu da je on pravljen sa idejom da bude koliko je to moguće future proof u odnosu na to šta su zahtevi, ali suština nije da je on generički i radi sve, nego je takav da može da se sam rekonfiguriše i na taj način prilagodi efikasnom izvršavanju. Što nije nešto što sam ja čuo da iko drugi na svetu radi na tom nivou kompleksnosti. Pa ono kao what’s the method behind the madness?

Marko Skakun: Da, da, da. Ovaj a pa prvo bih samo ovo što si rekao za ono user interface, taj ono razgovor ovaj sa AI-em, mislim to je sad kako kažem jako je bitna ta revolucija, jako je velika u stvari to stvar. Meni je zanimljivo ovaj slušao sam neki isto podkast sa Jensen Huangom, on je CEO Nvidie. I onda on imao izjavu kako on kad je bio mlađi tada je bilo tada su se kompjuteri pojavili tek i onda je bila priča kao ko može da iskoristi kompjuter, samo programeri i onda svi moramo da naučimo da programiramo da bi koristili kompjuter. A sad sa pojavom GenAI-ja zapravo svako može da koristi taj kompjuter, da ga isprogramira da uradi šta god želi, jer samo na prirodnom jeziku mu kaže uradi ovo i on to uradi. Tako da i neko ko nije programer, ko ima neki neku pekaru ili tako neki ono biznis može da dođe i da kaže ne znam sračunaj mi tabelu troškova da ne moram ja da se bavim time i kao taj neki AI asistent u svakom računaru, u svom biznisu napraviće neku razliku jer to je nešto što de facto može da se primeni ono svuda. I kao sad smo opet na takvoj nekoj prekretnici, ne neke ono AI ja bar isto gledam kao neku neki novitet koji je te veličine kao kao kad se pojavio računar ono. To je nešto što svi možemo da koristimo, da pronađemo mu neku primenu i kao to su ono rani dani ono maltene svako može da smisli neku novu primenu ovaj za za AI u nekom svom ono biznisu, što je jako zanimljivo taj taj pogled ovaj. E sad šta mi radimo, ovaj pa nekako da kažem u NextSiliconu imaju tri da kažem velike stvari koje koje razlikuju da kažem u odnosu na na druge startape, na Nvidiu, na tako dalje. Možda najbitnija stvar je što imamo ono data flow arhitekturu. To je sad malo teško objasniti jer su svi navikli na to ono da imamo ne znam CPU ili GPU koje, mislim GPU je u stvari samo ovaj da kažem neka mreža CPU-ova koji su ono dele neke stvari zajedničke, ali u suštini je da kažem to ono mašina koja dobije niz instrukcija i ide jednu po jednu instrukciju, izvršava te instrukcije. To je to, mislim ovaj i to je ta neka fon Nojmanova arhitektura koja je ne znam sad već koliko decenija aktuelna da kažem, nemamo ne nešto preterano drugačije od možda nekih analognih računara, nekih fotonik.

Ivan Minić: Samo je neuporedivo performantnije ali princip je potpuno isti.

Marko Skakun: Da, da. Tako da ovaj ta fon Nojman arhitektura je sad ono svuda. E sad NextSilicon radi nešto fundamentalno drugačije od toga. E sad šta je to, to je data flow. Ovaj šta je tu ideja? Ideja je da možemo da rekonfigurišemo hardver da radi neku proizvodnu funkciju, neku, na primer u AI-ju ne znam, ako pričamo o matričnom množenju ili nekoj aktivaciji, nekom računanju iz AI-ja, možemo da konfigurišemo čip tako da on u hardveru izvršava tu operaciju. Znači bez instrukcija, nego bukvalno da nanižemo da ispovezujemo graf u hardveru i kad pustimo podatke na ulaz tog grafa, data flowa da kažem, oni teku kroz hardver bez bez da mora da ima neka kontrolna jedinica koja to nadgleda, da ide po nekim registrima RAM i tako dalje, nego bukvalno prolazi kroz hardver dok ne dođe do nekog rešenja, do rezultata. E sad to ima par nekih ovako zanimljivih posledica. Jedna je što ono ima manje pomeranja tih podataka po čipu pa manje troši energije, tako da matematički da kažem teorijski maksimum efikasnosti data flow čipa i fon Nojmanovog instruction set čipa, data flow ima matematički daleko veću efikasnost. Znači teorijski može da troši manje struje. Ovaj što je da kažem otključava NextSiliconu mogućnost da bude efikasniji ovaj od ostalih na teorijskom nivou da kažem. Znači ta ta neka barijera je pomerena. Ovaj druga zanimljiva barijera je što omogućava nam da mnogo veći procenat čipa iskoristimo za sam kompjut. Znači mnogo veći procenat čipa se koristi za ono sabirače, množače i tako dalje, a manje za tu kontrolnu logiku koja je sa strane. Ovaj tako da da kažem i na toj nekoj površini čipa silicijuma ovaj možemo da imamo više performansi jer prosto tako je ovaj ispovezivano sve to. Tako da to ovaj zanimljiva jedna posledica druga i treća je što malo onako neočigledno, ali sada kad imamo taj neki graf kompjuta na čipu, mi kada pustimo jedan podatak da on krene po hardveru da se izračunava, kad on izračuna prvi korak mi možemo da ubacimo već sledeći podatak. I kada onda oba ta izračunaju sledeći korak, možemo još jedan podatak. Tako da se ispostavlja da u data flow čipu taj graf ono to se kaže truput je uvek jedan. Znači uvek u jednom ciklusu možemo da izbacimo jedan podatak, jer kao možemo da tako složimo, što nije tačno kod CPU-a i kod GPU-a. Znači što je duža taj duži taj graf kompjuta na CPU, GPU on mora jednu po jednu instrukciju da ide i onda ponovo da krene od početka do kraja. Ovaj i onda taj truput zavisi od kompleksnosti koda, a ovde je ovaj truput uvek jedan. Što je isto jedna zanimljiva posledica koja daje ono bolji performans. Ovaj tako da to meni je jako zanimljivo zapravo ovde što imamo zapravo inovativnu arhitekturu. Znači nismo ono yet another startap koji je napravio ono grid procesora koji imaju neki kor koji radi matrično množenje, ovaj nego je fundamentalno drugačija arhitektura ovaj na na na najnižem nivou hardvera. E sad to ima gomilu svojih nekih ono problema da kažem kako to kompajlirati i tako dalje, ali NextSilicon je uspeo da napravi to. I to je da kažem prva najveća stvar, imaju još dve. Ovaj jedna je, da kažem sledeća je, koja je bitna za HPC više nego za AI. AI je malo drugačiji ovaj workload. To je ta fleksibilnost. Znači NextSilicon tvrdi da može da uzme korisnički kod takav kakav jeste, da ga kompajlira i da pokrene. Ne zahteva nikakvo prepisivanje koda i tako dalje. Znači u HPC-u to su neke ogromne simulacije ne znam za za naftnu industriju, za bilo…

Ivan Minić: Vremenski uslovi, na zagađenje.

Marko Skakun: Vreme… šta god da.

Ivan Minić: Ono kompleksna fizika.

Marko Skakun: Tako je, znači neko je seo, napisao neku ultra kompleksnu aplikaciju i sedeo je gomilu vremena, kucao to u nekom fortranu ono 90-ih ili šta ja znam. Ovaj i kad je došla Cuda, ono to jest Nvidia, i oni su mogli to da prepišu, ali se apsolutno nije isplatilo. Znači taj gain koji bi dobili u odnosu na CPU da pređu na GPU nije opravdao da oni sednu da prepišu to za za za GPU. E pa NextSilicon sada dolazi i kaže mi ćemo da uzmemo taj vaš originalni kod i da ga pokrenemo na nečemu što je ima performanse na nivou GPU-a, a ne na nivou CPU-a. Tako da je to jako velika stvar za HPC industriju što zapravo ne zahtevamo da prepisuju kod. Ono u nekom našem jeziku ovaj, nego možemo da kompajliramo sve. I treća stvar koja je isto jako zanimljiva za HPC opet više nego za AI. Mislim u AI-ju je to jednostavnije kako da kažem imamo ovaj sve je to nekako iskonvergiralo u jednu stvar u AI-ju. Svi pišu ono u sličnim frejmvorkcima, slične stvari, tako da je jednostavnije, ali u HPC-u to nije baš tako. Ovaj treća stvar koja je bitna je adaptibilnost čipa. To je šta to znači? U HPC-u, mislim pošto HPC je u suštini proizvoljan kod koji neko može da napiše. Može da bude komplikovan na koji god način. Ono može da uradi taj neko šta god želi u kodu i onda je jako teško unapred, samo ono gledajući kod kao kompajler odlučiti ovo je najbolji način da se nešto kompajlira i spusti na čip. Jer zavisi od podataka. Ako neko stavi ne znam ovaj dan u nedelji dobiće ne znam za vremensku prognozu dobiće ovako neko zauzeće čipa, a ako stavi dobiće ovako i onda prosto ima više rešenja. Šta mi radimo je omogućavamo praktično kada se pokrene na čipu taj kod, možemo uživo da pratimo telemetriju sa čipa bez ikakvog penala na performans, sa nekim hardverski ubrzanim telemetrijama. I onda možemo dok se kod izvršava na čipu da ga rekompajliramo i da rekonfigurišemo čip tako da imamo bolje bolje zauzeće čipa, bolje iskorišćenje da kažem tog silicijuma koji imamo. Što je zanimljiva jedna stvar jer onako kako se izvršava kod obično su te HPC aplikacije imaju ponavljanje jednog istog dela više puta i onda imamo da kažem šansu da ono poboljšamo performans kroz vreme. Što je ovako isto jedna jedinstvena stvar u neku ruku. Tako da te tri stvari ono data flow, adaptibilnost i fleksibilnost ta ovaj su da kažem možda one glavne stvari koje ono NextSilicon odvajaju.

Ivan Minić: Kada smo čitali prvi put o svemu tome, to je sve delovalo vau, ali je delovalo prilično teorijski. Gde OK, naravno, neke simulacije su napravljene, neki testovi su napravljeni, deluje da to ima smisla, međutim danas mi pričamo o tome da postoji hardver koji postoji prva generacija, postoji sada druga generacija od nedavno, ovaj javno dostupna, koja se koristi u realnim uslovima eksploatacije na najzahtevnijim zadacima i ona ima svoje rezultate. Objavljeni su koliko manje struje, što uopšte nije mala stvar jer kao trenutno slušamo da zbog toga što se dopisujemo sa Chat GPT-jem neko mora da gradi nuklearnu elektranu pored data centra. Ovaj, a sa sa druge strane u smislu performansi to je šest puta, deset puta brže od comparable rešenja koja su koja su dostupna. Dakle, osim što je to mnogo lepo kada tako pričaš, to je zapravo, to se zapravo desilo.

Marko Skakun: Tako je.

Ivan Minić: I ti si bio deo toga.

Marko Skakun: Tako je, tako je, da. Pa eto Gen 2 kartica Maverick 2.

Ivan Minić: Koju ovde imamo.

Marko Skakun: Da, koju ovde imamo je ono proizvedena, radi, tu je, koristimo je, neki kastomeri je imaju, isprobavaju svoje neke stvari na njoj, tako da ovaj nije uopšte teorijska priča naravno. Mislim i imamo neke rezultate, eto taj Maverick dvojka ima u tim HPC aplikacijama koje su bitne HPC klijentima ima ne znam mislim da je 20x performans u poređenju sa CPU-om i nekih dva ili 4x u poređenju sa GPU-om. 4x da. Ovaj i a sve to sa manjom potrošnjom struje, ono što si rekao. To sad postajemo svi svesniji toga. Ovaj mislim to je uvek bilo bitno naravno jer neko ko pravi data centar treba mu ono to to mu je kako kažem running cost ono to je ono ono što ga košta da kažem u suštini. Mislim čipovi rade toliko dugo da da da se cena samog čipa isplati relativno jednostavno, ali potrošnja struje je ono što što košta da kažem. Ovaj tako da je sad taj ono performans per vat bitna stvar. I eto da mislim Maverick dvojka ima ima taj performans koji ima da kažem u HPC aplikacijama. Trenutno je u razvoju ono sledeća generacija čipa tako da radi se radi se dalje i dalje. Tako da, a mislim ono i mislim ono kontinuiran je neki razvoj kako da kažem imali smo prvu generaciju pa sada drugu. Nekako i mi učimo s jedne strane što kažeš kroz simulacije, kroz ono neki teorijska neka razmišljanja i ono simulacije u simulatorima, a s druge strane šta je meni isto zanimljivo je što mislim učimo i kroz sam čip, da kažem uvek na nekom na čipu imamo nešto eksperimentalno, nešto novo što želimo da probamo pa da kažem ubacimo u čip da probamo, da vidimo kako će da bude, kako će se pokaže performans, da naučimo nešto u realnom čipu. Tako da nije sve samo ono simulacija, ima i u realnom hardveru ovaj nekih eksperimenata na kojima na kojima učimo i u prvoj i sad i u drugoj generaciji čipa isto ovaj. Što je onako dosta zanimljivo ovaj da da to na kraju sve radi ovaj može da se koristi ovaj.

Ivan Minić: Pričali smo o prezentaciji novog čipa, a posle smo videli da je to zapravo dostupno i korisnicima koji se jave da su zainteresovani i tako dalje. Jedna od stvari koje možemo da vidimo je vaš interni alat koji ste razvili za profajling koji izgleda jako dobro, radi jako dobro i zapravo koliko god to možda delovalo nerealno, prilično dobro uradi profajling i kaže ti OK, ovo je problematično, ovo je deo koji će biti najzahtevniji, ovo je način na koji bismo mi to u idealnim okolnostima spakovali. Što je nešto što čip sam radi nakon prvog izvršenja. Ali kao postoji čitav set stvari koje okružuju to da neko uzme i kaže OK, ovako će izgledati čip. Znači postoji čitav support sistem koji zapravo mora da se uradi da bi ljudi u realnim okolnostima to zaista zaista mogli da testiraju. A ono što isto mislim da da da je jako važno, pričali smo ovaj i i sa tvojim kolegama ovde i i kada je Berić bio u Pojačalu, jeste taj momenat da ono NextSilicon je mala firma koja ima 400-tinak ljudi, od čega je jedna petina u Beogradu. I to su ljudi koji kao i ti rade zapravo na core stvarima. Nije vama tehnička podrška ovde, nemate vi ovde call centar. Vi ovde imate inženjere koji rade najnaprednije stvari koje su, neki od njih i došli iz iz čitavog sveta da bi ovde radili na tome. Ovaj i mislim da je važna tema da da kažemo prosto i šta je tvoja motivacija da budeš deo baš ovoga, zato što ti si opet još jedan od ljudi koji je imao izbor, mogao je da izabere i nešto drugo.

Marko Skakun: Tako je, tako je. Pa prvo na ovo što si rekao za alate, to je ovaj meni recimo bilo impresivno ovaj nekako došao sam onbordovao, se čuo neke stvari, sve to onako na nekom što kažeš teorijskom nivou ti je jasno ovaj, ali nekako prvi put kad sam otvorio da vidim da kažem taj ono profajler i generalno kako izgleda da kažem pošto sve to sad kao graf teorijski, ali onda imamo jedan tul u kome možeš bukvalno da vidiš ono na čipu kako izgleda taj graf koji je ono spušten na hardver i vidi se ono šta je s čim povezano. To je jedan ono haos konekcija ono. Koriste ono kompajler ljudi da debaguju neke stvari, nije nešto toliko korisno, ali je impresivno kada vidiš da je kao to je to, to je ono zapravo je to ovaj. Ili jako lepa vizualizacija ono, to mi je baš bilo ono kad sam video baš sam bio ono oduvan time. Ovaj ali da to mislim i kako kažem problematika sama za sebe je zanimljiva je ta poenta jer kao nije samo napraviti čip pa onda još na tom čipu napraviti neki kompajler koji to kompajlira da to radi uopšte i da radi performantno, nego i sve ostalo na šta su ljudi navikli što kažeš profajler i to sve. A sve to pravljeno s nekim paradigmama prošle te arhitekture. Tako da je to sad kako kažem nije samo smisliti novi hardver nego sad kako uopšte posmatrati taj hardver, kao kako uopšte sagledati šta je tu botlnek, kako kako uopšte analizirati kao. Sad više oni tulovi koji su normalni za druge ono čipove nama baš ni nemaju toliko smisla u nekim slučajevima jer je drugačija arhitektura. Tako da ovaj ima ima tu gomila ovaj gomila stvari i sa strane koje su jako interesantne kako da kažem.

Ivan Minić: Ali svakako ta ta stvar da ono ti moraš da napraviš nešto zbog čega će korisnik želeti da koristi tebe umesto onoga što je industrijski standard na šta su navikli. Znači nije neko ko je čelindžer na tržištu, ko radi inovativnu novu stvar ne može da se vodi time čime može da se vodi neko od igrača koji su tu 70 godina build it and they will come, build it and come to them jer kao oni sami doći neće.

Marko Skakun: Da, da, da. Pa mislim i tu je sad ono da kažem mislim u neku ruku je to i mogućnost za inovaciju da kažem, mogućnost da se uradi nešto novo, mislim s jedne strane zato što je drugačija arhitektura pa moramo, a s druge strane zato što smo novi i treba da se pokažemo na neki inovativan način, tako da to je isto ovaj zanimljiva strana. E sad ovo što si rekao za Beograd, da mislim to i meni isto kad sam dolazio nekako u tom trenutku NextSilicon nije toliko ovaj javno govorio šta radi i tako dalje. Prošlih par meseci je to ovaj da kažem dobilo neki zalet ovaj pa smo imali onaj tech launch i tako dalje. Ovaj gde sad mo može javnost da vidi zapravo u dosta detalja o o čemu mi pričamo ono po prvi put. Ovaj što je meni jako drago jer sad ono ljudi mogu da se informišu, ali čak i ja kad sam dolazio nekako nisam imao svest šta se tu zapravo radi. Nekako prvi put kad sam čuo mislio sam kao a da to je ono što ti kažeš autsorsing neki koji radi neke ono grunt work, znači ne neke ono stvari koje su dosadne. Ovaj ovima da kažem u centrali, u nekom mestu gde je to gde je glavno mesto, gde je glavni ofis. Međutim to je ono potpuno kompletno pogrešna mislim percepcija kao. Znači ono ono što mi radimo ovde je često ono radimo i neke zanimljivije stvari nego nego u glavnom ofisu i ono bukvalno radimo na svemu. Znači to to mi isto bilo ovaj ovde se ne radi samo ne znam dizajn hardvera ili samo verifikacija hardvera, nego bukvalno sve od ono dizajna hardvera, verifikacije hardvera, embeded, onda ono neki frejmvork integracije, kompajler za ono low level, pa onda evo sad mi sa AI-jem, onda svi ono performans simulacije, čak imamo i neki ono research tim koji radi ono neke ultra zanimljive ono stvari sa onom nekom matematikom grafova i tako dalje. Ovaj bukvalno ja mislim da sve što je u firmi bitno imamo po jedan tim i u Beogradu koji radi na nečemu što je bitno za celu firmu. Tako da to mi onako posebno zanimljivo ovaj i i posebno drago ono kada dođu ljudi na intervju ovaj nekako obraduju se kada čuju da da da smo taj ovaj da da radimo taj tip posla i to je ono činjenica stvarno.

Ivan Minić: Mislim da je važno za za prosto izuzetne ljude koji dolaze u tu fazu karijere u kojoj ne razmišljaju isključivo o finansijama i o svemu tome nego bi voleli malo i da to što radi rade u životu za njih ima smisla, da ih inspiriše. Ovaj da je važno reći da kao da u zapravo jako malom timu mogu da se postignu neverovatne stvari ukoliko su svi članovi tima izuzetni. To je ono što je na kraju dana i Džobs govorio kao ako hoćeš da imaš savršen tim, samo A igrači će zapošljavati A igrače jer je njima mnogo važniji cilj koji treba da postignu, a ne gde su oni u hijerarhiji, mnogo je manje sujete jer kao imaš nešto što je veće od od toga, imaš nešto što što je važnije od toga i to je neki moj utisak kada pričam sa sa svim tim ljudima koliko su sa jedne strane ono otvoreni da pričaju o stvarima koje su interesantne, koliko kada vide sjaj u očima nekog ko ko se zainteresuje sve će da mu objasne i sve će da mu nacrtaju što meni dosta znači jer meni treba objasniti. I koliko su i founderi i ekipa koja je pokrenula celu priču koliko su zapravo otvoreni, koliko je koliko kada su u Beogradu vidimo koliko im je to zapravo važno i koliko su koliko žele da budu deo zajednice i ekosistema i da sa NextSiliconom i sam ekosistem ovde raste i napreduje i pravi neke super stvari. Mi smo godinama imali priču o tome kako IT industrija cveta, kako je super, ali smo u suštini to gradili na nečemu što dugoročno gledano nije održiv model. Dakle ti sa autsorsingom si u suštini jeftina radna snaga, u jednom trenutku prestaneš da budeš dovoljno jeftin i onda imamo krizu kakvu imamo sada. A sa product kompanijama, posebno product kompanijama koje rade ovakve stvari, u principu nebo je granica i ceo sistem raste sa tim kompanijama u perspektivi i obrazovni sistem i tako dalje će imati vrlo direktan benefit od toga što ima laboratoriju, ima ljude sa kojima mogu da dođu studenti i da vide kako to izgleda negde u belom svetu isto tako i u Beogradu.

Marko Skakun: Tako je, tako je. Mislim gradi se baš ono neka specifična ekspertiza koja nije toliko dostupna na našim prostorima. Mislim evo recimo ovo na čemu ja radim AI graph compiler, mislim nema mnogo kompanija na svetu koje se bave time i ono nova je oblast mislim skroz ono. Čak i ono MLIR je nešto što je na čemu mi baziramo taj MLIR u kom mi radimo je ono 2019. da kažem krenuo kao tehnologija uopšte da da se koristi u celom svetu, ne u Srbiji nego. Mislim što je jako nedavno. Ovaj, al mislim ne samo to, ne čak ni u AI-ju nego evo ne znam meni je super drago što imamo dizajn hardver dizajn tim, to je ono ja sam 100 puta čuo kao hardver verifikacija, a dizajn radi neko tamo. Kao sad ovde gradimo našu ekspertizu, ljude koji to zapravo uče i zapravo rade ovde i kao i sutra i ako odu u neku u neku drugu firmu tu ekspertizu nekako ostaje ostaje ovde na ovim prostorima i ono raste. Ovaj a da kažem sad sličnog primera kao zašto sam ja ono odlučio da dođem ili kako kako je meni ovaj to zanimljivo. Ja sam nekako imao taj veliki strah nekako imao sam osećaj da sam došao na neko mesto gde sam u nekom bablu ljudi koji su svi odlični i da sad gde god da se pomerim da ću da napravim neku grešku jer ono mali ekosistem, malo ima ljudi koji se bave nekim zapravo ono interesantnim ovaj meni hajde interesantnim kompleksnim stvarima u tom nekom smislu. Ovaj i onda sam imao taj strah i onda nekako i kad sam dolazio ovde malo mi je to bilo sa nekom rezervom kao da li ću doći u ekipu koja je zapravo ovaj toliko zainteresovana i nekako sam skroz ono skroz okrenuto mišljenje, čak sam ono toliko prezadovoljan što sam zapravo došao jer sam naučio toliko novih stvari. Ovaj i mislim ta ekipa da kažem u u u Izraelu u glavnom ofisu ono pričao sam sa toliko ono inženjera i sa toliko arhitekta, svi su ono otvoreni da ti objasne, da naučiš nešto. Ono kao toliko sam stvari naučio prošle godine dana da ono ne znam kad sam pre ono toliko ovaj naučio jer nekako nema nema te neke ono politike sad nekog nameštanja timova, onog sve nekako ono flet.

Ivan Minić: Nije korporatizovano.

Marko Skakun: Nije uopšte, mislim mala je firma i onda nema uopšte neke potrebe da kažem da se to korporatizuje jer ono možemo da iskomuniciramo svi sve i ono super su ljudi otvoreni tako da mi je to baš bilo ono drago nekako što ono s jedne strane nisam napravio grešku, a s druge strane što sam na takvom mestu, imam šansu da se bavim tim stvarima. Tako da ovaj i drago mi je što ono u Beogradu zapravo imamo šansu to da radimo. Nije nekako to ograničeno na jednu, dve, tri kompanije, nego ono raste raste taj sistem i nije samo da ono da kažem mi unutar Srbije delimo neko znanje nego sad ono donosimo od spolja ka unutra to neko znanje što je isto ovaj jako lepo.

Ivan Minić: Mislim imamo i tu prosto situaciju da su neki ljudi koji su kupili prethodnih decenija znanje po svetu, a odavde su, odlučili da se vrate zato što imaju ovu priliku. U suprotnom ne bi mogli da rade cutting edge stvari ovde i zbog toga se ne bi vratili.

Marko Skakun: Da, da, da.

Ivan Minić: Sada ta sada to imaju priliku. Marko, hvala ti puno. Meni je bilo izuzetno zanimljivo. Nadam se da je i našim slušaocima i gledaocima bilo tako. To bi bilo to za ovu epizodu, serijal se nastavlja, vidimo se ponovo naredne srede.

Nove epizode u vašem inbox-u:

Podržite Pojačalo:

Donirajte jednokratno ili kroz dobrovoljnu mesečnu pretplatu već od 5 EUR.

Pratite nas:

Pojačalo podcast možete gledati na Youtube-u i Facebook-u, a slušati na SoundCloud-u, Spotify-u, -u, na Apple i Google podcasts.