March 1, 2001
Mindre bra rubrik men frågeställningen/diskussionsämnet går så här.
Ponera att du har X antal datorer som genererar slumpmässiga bilder i upplösningen 640*480 i 16 bits färgdjup. 65k färger.
(Nån som orkar räkna på hur många bilder det blir om alla kombinationer genomförs?)
Varje pixels färginformation skapas slumpmässigt av datorerna.
Sannolikt blir 99% av alla bilder ett färgglatt brus men ur alla bilder med brus borde även riktiga bilder komma. T ex kanske en bild på mig tillsammans med Kungen skapas i så nära perfekt bildkvalitet som möjligt med förutsättningarna som är givna.
En bild på en orange kanin som cyklar med röda gummistövlar kommer naturligtvis oxå genereras. I förlängningen kan det även bli till en film på den oranga kaninen eller vad det nu är.
Iden kommer ifrån det där med att ett oändligt antal apor förr eller senare återskapar Shakespeares verk. Är detta "realistiskt"? Eller finns det nån "naturlag" som förhindrar det här i praktiken?
Vi förutsätter att vi har en ENORM serverpark och obegränsat med lagringsutymme för bilderna.
December 30, 2005
Satt och lekte lite med excel och får helt sjuka siffror.
Om du räknar med 16 bitars färgdjup, 4 (!) pixlar och 640000 bilder/sekund tar det ändå 913973 år att gå igenom alla kombinationer...
16 pixlar vid samma färgdjup och bilder/sekund skulle ta ca 5737098536063750000000000000000000000000000000000000000000000000
år...
January 4, 2001
mach wrote: Satt och lekte lite med excel och får helt sjuka siffror.
Om du räknar med 16 bitars färgdjup, 4 (!) pixlar och 640000 bilder/sekund tar det ändå 913973 år att gå igenom alla kombinationer...
16 pixlar vid samma färgdjup och bilder/sekund skulle ta ca 5737098536063750000000000000000000000000000000000000000000000000
år...
Då räknar du på att du har en dator på ungefär 10Mhz alltså?
Säg att det tar 4 klockcykler för att räkna upp och srkiva ett värde till minnet. (Förutsatt att du har mjukvara som är optimerad). Då tar det alltså 16 klockcykler att spara undan en bild. Om du då räknar med att du hinner med 640 000 bilder per sekund så blir det 16 * 640000 klockcykler / s = 10240000 = 10.24Mhz
December 30, 2005
Coore wrote: [quote=mach]Satt och lekte lite med excel och får helt sjuka siffror.
Om du räknar med 16 bitars färgdjup, 4 (!) pixlar och 640000 bilder/sekund tar det ändå 913973 år att gå igenom alla kombinationer...
16 pixlar vid samma färgdjup och bilder/sekund skulle ta ca 5737098536063750000000000000000000000000000000000000000000000000
år...
Då räknar du på att du har en dator på ungefär 10Mhz alltså?
Säg att det tar 4 klockcykler för att räkna upp och srkiva ett värde till minnet. (Förutsatt att du har mjukvara som är optimerad). Då tar det alltså 16 klockcykler att spara undan en bild. Om du då räknar med att du hinner med 640 000 bilder per sekund så blir det 16 * 640000 klockcykler / s = 10240000 = 10.24Mhz
Okaj, låt oss säga att du har 20 st 5Ghz datorer som med ditt superoptimerade program kan göra 10k snabbare beräkningar än jag förutsatte. Då pratar vi fortfarande om ca 90 år för fyra pixlar... Vad jag vill säga är att det helt enkelt inte låter sig göras att generera alla kombinationer av 640x480 pixels bild med 16 bitars färdjup.
December 30, 2005
Fast du har rätt till viss del. Om vi förutsätter att 'Moores lag' fortsätter gälla (om den någonsin funnits) så har vi dubblerad datorkraft efter 18 månader.
Så, då borde genereringen vara löst efter:
Månad : 00 | 18 | 36 | 54 | 72 | 90 |108
Tid kvar: 90 | 44 | 20 | 09 | 04 | 01 | Klart!
Ca 9 år!
September 12, 2001
Coore wrote: Ja, att det tar lång tid ifrågasätter jag inte. Jag tyckte bara att du räknade lite klent på processorkraften när det pratades om feta serverparker. 🙂
Men det är inte så konstigt att du är så inställd på klena burkar med tanke på dina tidigare mögliga saker. 😉
March 1, 2001
Satt och lekte lite med excel och får helt sjuka siffror.
Om du räknar med 16 bitars färgdjup, 4 (!) pixlar och 640000 bilder/sekund tar det ändå 913973 år att gå igenom alla kombinationer...
16 pixlar vid samma färgdjup och bilder/sekund skulle ta ca 5737098536063750000000000000000000000000000000000000000000000000
år...
Shit asså, blir fan värre än jag trodde. Man ska inte underskatta potenstal.
Det tycks ta ofattbart lång tid även med all datorkraft i världen..
Kanske är lite "farout" men kvantprocessorer kanske borde kunna få ner tiden. Inte helt insatt men de sägs ju i teorin vara oändligt snabba.
1 Guest(s)