Forumnyheter:

Efter uppgradering av forumprogramvaran saknas vissa äldre bifogade filer just nu. Vi beklagar detta och arbetar med att lösa problemet.

Huvudmeny

Skriv svar

Meddelandet har följande fel som måste rättas till innan du kan fortsätta:
Varning: Det har inte skrivits nya inlägg i detta ämne på 120 dagar.
Om du inte är säker på att du faktiskt vill svara i det här ämnet, så bör du överväga att istället starta ett nytt ämne.
Varning - medan du läste inläggen, hann 2 nya svar postas i ämnet. Du kanske bör se över ditt inlägg.
Begränsningar: 10 per inlägg (10 återstår), Maximal total storlek 7,81 MB, maximal storlek per fil 6,84 MB
Kryssa av de bifogade filer du inte längre vill bifoga
Dra och släpp dina filer hit, eller använd knappen för att lägga till filer.
Andra tillval
Verifiering:
Lämna detta fält tomt:
Skriv in bokstäverna som syns på bilden
Lyssna på bokstäverna muntligt / Begär en ny bild

Skriv in bokstäverna som syns på bilden:
Vilket är det högsta talet du kan få till om du bara får använda en siffra?:
Kortkommandon: ALT+S för att skicka/posta eller ALT+P för att förhandsgranska

Ämnessammanfattning

Skrivet av Daniel Hofverberg
 - 20 maj 2023 kl. 02:14:00
Citat från: Sabelöga skrivet 19 maj 2023 kl. 23:45:43Idag kom den här nyheten:

https://www.moviezine.se/nyheter/somlos-dubbning-med-ai-svensk-film-forst-ut-med-att-testa-spannande-nytt-verktyg?fbclid=IwAR1pt7In5D7Xbi2a1qxU3o6V95mR-B5CRTNK_K_DoQfqFe3gFzfm8UnZuzU

Vad tänker ni alla om detta?
Låter intressant i teorin, men frågan är hur det fungerar i praktiken? För live-actionfilmer krävs det ju trots allt att det verkligen ser naturligt ut, då minsta lilla avvikelse lätt gör att det börjar kännas som det som populärt brukar kallas för uncanny valley...

YouTube-klippet i artikeln ser visserligen bra ut, men det rör sig ju bara om ett väldigt kort exempel; där man dessutom kan förmoda att de har valt ut ett fall som fungerar bra. Men vad händer vid alla de scener där skådespelarna inte är avbildade i närbild framifrån...? Jag gissar att det borde bli svårare för artificiell intelligens att kunna räkna ut läppsynk då.

Frågan är också om den här tekniken sker automatiskt eller manuellt, eller en kombination? Fungerar det för alla språk, eller bara vissa?

Och vad kostar det att ta fram lokala läpprörelseanpassade versioner för dubbningar? Det är väl kanske viktigast av allt, för i USA finns det garanterat gott om pengar för att kunna använda sådan här teknik - men ska det bli realistiskt att kunna använda även i mindre länder (såsom de nordiska länderna) krävs det ju att det är både billigt och snabbt att ta fram, för annars lär alla distributörer nöja sig med "vanlig" dubbning utan någon bildanpassning...
Skrivet av Anders M Olsson
 - 19 juni 2019 kl. 07:20:32
Det här är naturligtvis inget som kommer att bli verklighet inom en nära framtid, men det är ändå intressant att se hur långt forskningen har kommit.

Det man nästan rutinmässigt gör idag är att förse djur med synkrona läpprörelser, så det är väl inte så långsökt att tänka sig att man skulle kunna göra samma sak med människor.

Som lite kuriosa kan jag ju nämna att strax efter ljudfilmens genombrott omkring 1930 spelade man ibland in parallella versioner av filmer på olika språk. Man behöll kostymer och kulisser, men tog in skådespelare från helt andra länder för att spela in samma film på andra språk. T.ex. spelades "Vi som går köksvägen" in 1932 i Råsunda i både svensk och norsk version.
Skrivet av Daniel Hofverberg
 - 19 juni 2019 kl. 00:56:54
Onekligen intressant och fascinerande. Det är nog en bra bit bort innan det är realistiskt att kunna "bearbeta" läpprörelser utifrån översatt dialog på en hel film på det här sättet - det som tas upp i exemplet är ju bara en person som står rakt upp och ned och pratar - men visst skulle det kunna bli verklighet tids nog. Exemplen i den videon ser ju i alla fall helt klart realistiska ut.

Frågan är nog snarare hur allt skulle fungera runt omkring. När tekniken är mogen låter det inte så långsökt att filmbolagen kan tänkas "rendera"/generera läpprörelser för filmer för alla språk som en film har dubbats till, men hur ska resultatet faktiskt visas upp...? På bio är det väl i och med dagens digitala teknik förmodligen inte hela världen att skicka ut unika versioner av filmer med anpassade läpprörelser för biografer runt om i världen - trots allt blir det ju unika versioner även med bildversioner med översatta för- och eftertexter.

Men på DVD och Blu-Ray vore det en helt annan femma, eftersom det då skulle kräva att i stort sett hela filmen lagras i olika versioner för varje enskilt ljudspår på skivan; så en Blu-Ray-skiva för de skandinaviska länderna skulle alltså behöva lagra hela filmen fem gånger (svenska, norska, danska, finska och originalspråket). Visserligen rymmer Blu-Ray-skivor ganska mycket, men knappast mycket... Och med tanke på att de flesta filmbolag i dagens läge är högst motvilliga till att ta med svenska bildversioner på Blu-Ray med översatta förtexter, så känns det inte speciellt troligt att de skulle vara så mycket mer medgörliga bara för att det handlar om läpprörelser.

Vid digitala köptjänster och streamingtjänster finns det ju i dagsläget heller inga anpassade bildversioner för olika språk, och något säger mig att exempelvis Netflix inte lär vara speciellt sugna på att lagra filmer 20 - 25 gånger för alla de dubbade ljudspår som ofta tillhandahålls för Netflix olika regioner världen över. Det skulle ju alltså innebära att lagra alla filmer i dussintals versioner för både bild och ljud, istället för som idag samma bild och bara dussintals ljudspår. Tänk er vilken enorm lagringskapacitet det skulle kräva på Netflix servrar...

Och på TV är det ju många TV-kanaler som sänder till flera olika länder (framförallt då Sverige, Norge, Danmark och ofta även Finland), med samma bild och flera olika ljudspår. Åtminstone utifrån dagens teknik blir det ju då inte möjligt att kunna sända olika läpprörelseanpassade versioner.

Jag misstänker att det blir där det kommer fallera i praktiken, hellre än på vad som är tekniskt möjligt...


På lång sikt skulle det absolut vara intressant att kunna syntetisera repliker utifrån originalskådespelare, men det känns som att det är ännu längre bort innan det är realistiskt - trots allt består ju alla språk av så många olika nyanser att det vore väldigt svårt att efterlikna tonfall och inlevelse, utan att det låter onaturligt.
Skrivet av Anders M Olsson
 - 18 juni 2019 kl. 10:08:12
Oavsett hur bra dubbning görs går det aldrig att få läpprörelserna att stämma helt. Det ser alltid lite onaturligt ut.

Men praktiskt taget all film görs i dag digitalt. Man kan göra digitala specialeffekter och skapa miljöer som aldrig skulle gå att filma med konventionell teknik. Man kan konvertera 2D film till 3D trots att det egentligen borde vara omöjligt. Då är det inte så långsökt att tänka sig att man digitalt skulle kunna ersätta skådespelarnas läpprörelser med något som stämmer perfekt med dubbningen. Kanske behöver man inte ens anlita röstskådespelare till olika språk? Det går kanske rent av att syntetisera replikerna utifrån originalskådespelarnas röster. Tanken svindlar...

Även om forskningen som beskrivs i artikeln nedan inte primärt handlar om dubbning är det inte svårt att föreställa sig hur tekniken skulle kunna tillämpas. Det finns faktiskt ett kort exempel på dubbning i videon där de har ersatt engelska med tyska.

https://newatlas.com/edit-talking-head-text-deepfake/60160/