Ny sharpening fra google
Det er efterhånden længe siden teknologien til lytro kamera blev opfundet.. Light Field Camera kaldes det.
Lytro Illum har en opløsning på 40 millioner. lysstråler.
https://www.lydogbillede.dk/nyheter/tek ... ye-kamera/
Lytro Illum har en opløsning på 40 millioner. lysstråler.
https://www.lydogbillede.dk/nyheter/tek ... ye-kamera/
Ok, jeg kunne heller ikke finde noget, men jeg syntes jeg så en på twitter vise et eksempel i går - men det har nok bare været fra googles eget billedemateriale.
--
Robert
Robert
Yep, forestiller mig de måske licencere algoritmen ud til f.eks. PS og andre editorer på sigt
/Dub
De kommer nok ikke til at licensere algoritmen fordi teknologien er offentlig tilgængelig (hvilket er standarden alle følger indenfor det her område, bortset fra Apple).
Artiklen er frit tilgængelig på arxiv (eksempler fra side 15):
https://arxiv.org/pdf/2104.07636.pdf
En ‘sjov’ fejl denne familie af modeller laver er at de ikke kan generalisere ud over koncepter de tidligere har set. Eksempelvis var der en lignende model (som dog var et filter) som kun var trænet på video fra sydtyskland, og når så filteret blev brugt på video fra californien blev bjergene fyldt med træer (som i sydtyskland).
Men intentionen er at opdage de her fejl og kollektivt løfte udviklingen videre, selv om det måske lyder som en dårlig forretningsmodel.
Artiklen er frit tilgængelig på arxiv (eksempler fra side 15):
https://arxiv.org/pdf/2104.07636.pdf
En ‘sjov’ fejl denne familie af modeller laver er at de ikke kan generalisere ud over koncepter de tidligere har set. Eksempelvis var der en lignende model (som dog var et filter) som kun var trænet på video fra sydtyskland, og når så filteret blev brugt på video fra californien blev bjergene fyldt med træer (som i sydtyskland).
Men intentionen er at opdage de her fejl og kollektivt løfte udviklingen videre, selv om det måske lyder som en dårlig forretningsmodel.
Enig - det er heller ikke Googles normale forretningsmodel. De plejer at stille det meste frit til rådighed, for at høste endnu mere data om deres brugere.Mike-air skrev: ↑tirs 14. sep 2021 16:17 De kommer nok ikke til at licensere algoritmen fordi teknologien er offentlig tilgængelig (hvilket er standarden alle følger indenfor det her område, bortset fra Apple).
Artiklen er frit tilgængelig på arxiv (eksempler fra side 15):
https://arxiv.org/pdf/2104.07636.pdf
En ‘sjov’ fejl denne familie af modeller laver er at de ikke kan generalisere ud over koncepter de tidligere har set. Eksempelvis var der en lignende model (som dog var et filter) som kun var trænet på video fra sydtyskland, og når så filteret blev brugt på video fra californien blev bjergene fyldt med træer (som i sydtyskland).
Men intentionen er at opdage de her fejl og kollektivt løfte udviklingen videre, selv om det måske lyder som en dårlig forretningsmodel.
--
Robert
Robert
Ja, verdenen er et sjovt sted. Apple er lige blevet slagtet for at ville scanne efter børneporno. Ingen løfter et øjenbryn over at google scanner alt hvad de kan komme i nærheden, og holder det sammen med dine placeringshistorik, dine internetvaner, dine køb og alt muligt andet.
--
Robert
Robert
Der er som sådan to sider af det; 1) arkitektur samt lærings-algoritme/metode, og så er der 2) resultatet som er nogle enorme matriser med parametre (googles model her har 1,95 milliarder), hvor værdierne af disse repræsenterer hvad modellen lærer.
Resultat-værdierne i modellens parametre er rigtigt nok det som gør at den ‘virker’, men hvordan disse arrangeres, hvor mange der skal være og hvordan de skal transformeres (det er dette man kalder arkitektur), er den anden halvdel af det. Har du arkitektur (bilag A i artiklen), lærings-metode (afsnit 2) og datasæt (se her under) kan du skabe en model som er lige så god eller bedre.
Mht data:
Alle disse datasæt som de har brugt er offentligt tilgængelige, så hvis du har penge nok kan du leje en masse virtuelle maskiner hos amazon og træne din egen model som kan det samme. Årsagen er igen at man skal kunne verificere og sammenligne resultater: Hvis alle aktører arbejder på forskellige eller private datasæt er det umuligt at have en baseline at sammenligne med.Datasets: We follow previous work [28], training face super-resolution models on Flickr-Faces-HQ (FFHQ) [20] and evaluating on CelebA-HQ [19]. For natural image super-resolution, we train on ImageNet 1K [43] and use the dev split for evaluation.
Fun fact; i samme boldgade som med træerne i californien-eksemplet, er det nogle gange lykkedes at genskabe trænings-dataen via et såkaldt ‘adversarial attack’. Lige netop det at bruge sensitiv data til træning vil derfor være en rigtig dårlig ide.Pastorius skrev: ↑tirs 14. sep 2021 17:23Ja, verdenen er et sjovt sted. Apple er lige blevet slagtet for at ville scanne efter børneporno. Ingen løfter et øjenbryn over at google scanner alt hvad de kan komme i nærheden, og holder det sammen med dine placeringshistorik, dine internetvaner, dine køb og alt muligt andet.
https://www2.isye.gatech.edu/~fferdinan ... aper_9.pdfHowever, recent research shows that machine learning models may leak sensitive informa- tion about training samples. Attacks can be launched against target models to infer membership in the training set (Shokri et al. 2017) or to reconstruct training data (Fredrikson, Jha, and Ristenpart 2015). Similarly, GAN models do not pro- vide guarantees on what the generated data may reveal about real, sensitive training data, e.g., real participants in a clin- ical study
Her er et eksempel fra artiklen. Google-forskerne har henledt opmærksomheden på hvor detaljeret øjet er, men hvis man tager et kig der hvor jeg har lavet en blå pil vil man se at modellen har svært ved at generalisere fra særlige objekter den ikke har set tidligere (øreringen).
Venstre: SR3 (Google), højre: Det rigtige billede.
Hva kan man gøre? Mere data, mere robust metode.
Venstre: SR3 (Google), højre: Det rigtige billede.
Hva kan man gøre? Mere data, mere robust metode.
Øjnene er heller ikke det samme. Flashrefleksen mangler næsten i Google billedet. Lyset er lidt mere levende i det højre billede. Det venstre virker lidt mindre belyst. Derfor virker det som om der er lidt mere farve i kinderne. Og er tænderne ikke en anelse hvidere på det højre billede ?Mike-air skrev: ↑tirs 14. sep 2021 22:52 Her er et eksempel fra artiklen. Google-forskerne har henledt opmærksomheden på hvor detaljeret øjet er, men hvis man tager et kig der hvor jeg har lavet en blå pil vil man se at modellen har svært ved at generalisere fra særlige objekter den ikke har set tidligere (øreringen).
Venstre: SR3 (Google), højre: Det rigtige billede.
gan.PNG
Hva kan man gøre? Mere data, mere robust metode.
Jeg vil sige at, havde jeg skudt det venstre foto, var det blevet kasseret.
Det højre betragter jeg som et RAW foto som trænger til en del editering, især sharpening og vibrering.
Det højre betragter jeg som et RAW foto som trænger til en del editering, især sharpening og vibrering.
Aldrig har så stor en idiot haft så lidt forstand på så mange plug-ins
https://soundcloud.com/user-469072941
https://soundcloud.com/user-469072941