Eine Welt ohne Videospiele...

Ich findes es merkwürdig wie gewisse Fragen interpretiert werden :-)
Die frage war wenn es keine mehr gibt, wenn alle weg sind. Wie das passiert oder ob es möglich ist, tut nichts zur Sache.

Das wäre wie wenn ich fragen würde, wie dein Name ist und du mir antwortest mit es ist jetzt halb drei. Das wollte ich nicht wissen :-)

Wenn der Name der Person die du gefragt hast aber wirklich "Es ist halb drei" wäre hättest du genau das wissen wollen
Guten Tag, mein Name ist Esisthalbdrei Müller, ich wohne in München und studiere Weißwürstel.
 
Auch eine "Annahme" braucht ein fundiertes Szenario, soll sie nicht unsinnig bleiben - gerade in einem "akademischen Fall".

Ich denke auf diese Frage ist es nicht umbedingt notwendig ein fundiertes Szenario auszuarbeiten. Wenn du aber umbedingt einen Grund dafür brauchst warum alle Spiele weg sind kannst du dir sicher selber einen ausdenken.
z.B.
Ein Virus verhindert sämtliche spiele am starten (PC sowie Konsole).

Beim ankreuzen eines Lotto scheins triffst du auch eine Annahme. :-)
 
Ich glaube die Auswirkungen wären beträchtlich.
Mal abgeshen davon, dass wir mehr Fußballplätze bräuchten und mehr fernsehen würden, haben Computerspiele unsere Welt auch noch auf ganz andere Weise geprägt:

  • Die Spezialeffekte in Filmen basieren ganz erheblich auf Entwicklungen der Computergrafik in Spielen. Hätte es Computerspiele nie gegeben, dann hätte man viele Filme überhaupt nicht drehen müssen.
  • GPU Computing war für die Anwendung von Many-core Prozessoren unglaublich wichtig. Ohne 3D Spiele wäre im Finazwesen, der Astronomie, Physik, Biologie, Geologie, und so gut wie jeder anderen Natur- oder Ingenieurswissenschaft so manches anders.
  • Daneben gibt's bestimmt noch eine ganze Reihe anderer Wechselwirkungen. Hohlbein hat z.B: nach dem Spielen von Warcraft ein Buch über ein Warcraft-ähnliches MMORPG geschrieben; zu der Zeit gab es den Begriff MMORPG noch gar nicht.
 
  • Die Spezialeffekte in Filmen basieren ganz erheblich auf Entwicklungen der Computergrafik in Spielen. Hätte es Computerspiele nie gegeben, dann hätte man viele Filme überhaupt nicht drehen müssen.

Das ist nicht richtig; eher der umgekehrte Weg ist der Fall. Zu Zeiten eines "Jurassic Parks" (1993) war CGI eigentlich gleichbedeutend mit der Firma SGI, die auf Computeranimationen spezialisiert war, aber mit Spielen nun mal gar nichts am Hut hatten ("OpenGL" . SGI-Workstations waren 1987 bereits in der Animation weit verbreitet, während die "Revolution" im Computerspielebereich noch bis 1996 auf sich warten ließ, als der 3dfx Voodoo auf den Markt kam - im Jahr davor feierte allerdings der erste Langfilm ausschließlich aus dem Computer ("Toy Story") bereits Premiere.

  • GPU Computing war für die Anwendung von Many-core Prozessoren unglaublich wichtig. Ohne 3D Spiele wäre im Finazwesen, der Astronomie, Physik, Biologie, Geologie, und so gut wie jeder anderen Natur- oder Ingenieurswissenschaft so manches anders.

Siehe Entwicklung im Film-Bereich, die der PC-Spiele-Entwicklung voraus war. Der Bedarf nach schnelleren Grafikkartenprozessoren war auch im professionellen Bereich sehr hoch, weswegen ich eine solche These ohne Angabe von glaubwürdigen Quellen stark bezweifle.

  • Daneben gibt's bestimmt noch eine ganze Reihe anderer Wechselwirkungen. Hohlbein hat z.B: nach dem Spielen von Warcraft ein Buch über ein Warcraft-ähnliches MMORPG geschrieben; zu der Zeit gab es den Begriff MMORPG noch gar nicht.

Dann war er spät dran. Warcraft erschien 1994; Neverwinter Nights (das erste grafische MMORPG) bereits 1991. Die Idee von MMORPGs dürfte sehr viel älter sein - das war eine unserer "Jugendträumerei" zu C64-Zeiten.
Sehr viel stärkere "Wechselwirkungen" zu unserer heutigen Computerwelt und vor allen Dingen Begriffsprägungen wirst Du im 1984 erschienenen "Neuromancer" (dessen Gegenstück sich übrigens "Wintermute" nennt) finden: Dort gehen die Leute über neuronale Schnittstellen per Computer in die virtuelle Realität des weltumspannenden Netzes; "Cyberspace" oder "Matrix" genannt. Wer es noch nicht gelesen hat: Unbedingte Empfehlung; auch heute noch!
 
Zu Zeiten eines "Jurassic Parks" (1993) war CGI eigentlich gleichbedeutend mit der Firma SGI, die auf Computeranimationen spezialisiert war, aber mit Spielen nun mal gar nichts am Hut hatten ("OpenGL" . SGI-Workstations waren 1987 bereits in der Animation weit verbreitet, während die "Revolution" im Computerspielebereich noch bis 1996 auf sich warten ließ, als der 3dfx Voodoo auf den Markt kam - im Jahr davor feierte allerdings der erste Langfilm ausschließlich aus dem Computer ("Toy Story") bereits Premiere.
Schon richtig, nur habe ich nie behauptet CGI wäre aus Computerspielen hervorgegangen.
Während bei "Jurassic Park" Dinosaurier durch die Gegend gelaufen sind, gab es zeitgleich in Computerspielen auch komplexe CGI Szenen.
Zudem gibt es SGI heute nicht mehr, und die treibende kraft hinter der heutigen Technik waren genau die Firmen, die vor 20 Jahren anfingen Grafikchips für Spielekonsolen und andere Consumer-Produkte zu entwickeln.
Und weil du "Toy Story" ansprichst: Die Toolchain für Renderman hat in den letzten 15 Jahren massiv von Entwicklungen in der Echtzeitgrafik profitiert.
Motion Capturing ist ein anderes Beispiel für den Einfluss des "Gaming": Die Idee ist uralt, und es gab schon in den 70ern und 80ern erste Versuche so etwas in Filmen einzusetzen. Das erste ernstzunehmende Produktivsystem wurde für ein Computerspiel entwickelt.

Der Bedarf nach schnelleren Grafikkartenprozessoren war auch im professionellen Bereich sehr hoch, weswegen ich eine solche These ohne Angabe von glaubwürdigen Quellen stark bezweifle.
Der "professionelle Bereich" gibt weder die Stückzahlen noch die Umsätze her um so eine Entwicklung zu fördern. Das kann man jedem NVIDIA oder AMD Quatalsbericht entnehmen.
Außer dir kenne ich ehrlich gesagt auch niemanden der den Einfluss von Consumer GPUs auf die gesunken Kosten pro GFLOP bestreitet.
Die Auswirkungen sind dabei auch offensichtlich, sowohl beim "normalen" Cluster Computing als auch im Bereich der Supercomputer sind es die GPUs die die Kosten drücken.
Anzunehmen dies wäre möglich wenn der GPU Markt 80% kleiner wäre ist schon sehr gewagt.

Dann war er spät dran. Warcraft erschien 1994; Neverwinter Nights (das erste grafische MMORPG) bereits 1991. Die Idee von MMORPGs dürfte sehr viel älter sein - das war eine unserer "Jugendträumerei" zu C64-Zeiten.
Sehr viel stärkere "Wechselwirkungen" zu unserer heutigen Computerwelt und vor allen Dingen Begriffsprägungen wirst Du im 1984 erschienenen "Neuromancer" (dessen Gegenstück sich übrigens "Wintermute" nennt) finden: Dort gehen die Leute über neuronale Schnittstellen per Computer in die virtuelle Realität des weltumspannenden Netzes; "Cyberspace" oder "Matrix" genannt. Wer es noch nicht gelesen hat: Unbedingte Empfehlung; auch heute noch!
Keine Ahnung was du mir damit sagen willst.
Es geht darum, dass ein Spiel einen Schriftsteller beeinflusst. Hohlbein habe ich als Beispiel genommen, weil es gut in ein WoW-affines Forum passt.
Natürlich gibt es wahrscheinlich noch unzählige andere Beispiele. "Tron" würde ich z.B. für wesentlich Gaming-orientierter halten als "Neuromancer".

@Topic
Die Digitale Musik hätte es ohne Computerspiele wohl auch schwerer gehabt: Eine Soundkarte hatte man in der Regel wegen Computerspielen im Rechner, und nicht weil man per MIDI-Port Musikinstrumente anschließen wollte. Nur so konnte man die MP3s aber direkt am Rechner hören oder auf der Steroanlage ausgeben. Auf CD brennen wäre auch schwer gewesen, denn es waren Computerspiele wie "Rebel Assault" die dem CD Laufwerk (und somit auch den späteren Brennern) im Privatbereich zum Durchbruch verholfen haben.
 
Zuletzt bearbeitet von einem Moderator:
du rezitierst hier ohne DIREKTE KRITIK, ohne QUELLEN. also für mich bist du in der beziehung schonmal durchgefallen.

soweit ich es noch von meinem, "kommunistischem", geschichtslehrer kenne, entwickelten sich Ton und Bild, mehr oder minder, gleichzeitig.

das problem beim ton ist, dass es ein maximum beim "schall" gibt. beim bild jedoch nicht.
 
Schon richtig, nur habe ich nie behauptet CGI wäre aus Computerspielen hervorgegangen.
Während bei "Jurassic Park" Dinosaurier durch die Gegend gelaufen sind, gab es zeitgleich in Computerspielen auch komplexe CGI Szenen.

So? Welche denn? Das, was Origin damals zeitgleich mit "Strike Commander" und "Privateer" als vorgerenderte Videosequenzen präsentierte, war der Status Quo - und meilenweit von einer Perfektion oder gar "Komplexität" der professionellen Animationstechnik entfernt, wie "Jurassic Park" eindeutig belegt. "Wing Commander 3" war in genau diesem Jahr das "revolutionärste", was es jemals an Grafik in Computerspielen gab - zum ersten Male tatsächlich schnelle SVGA (und hier bin ich mal ausnahmsweise bei Dir: Vor "WC3" galten 4 MB als ausreichend; ebenso ein beliebiger 486er. "WC3" pushte von heute auf morgen die Grenzen der Heimmaschinen auf 8 MB Arbeitsspeicher mit mind. einer 486DX2-Maschine; AGP-Grafikkarte und schnellem Motherboard, um diese "unglaubliche Geschwindigkeit" auch mitzumachen)! Die Videosequenzen in "WC3" waren alle auf größeren Rechnern vorberechnet und in niedriger Auflösung als Video-File auf den Datenträgern!

Zudem gibt es SGI heute nicht mehr, und die treibende kraft hinter der heutigen Technik waren genau die Firmen, die vor 20 Jahren anfingen Grafikchips für Spielekonsolen und andere Consumer-Produkte zu entwickeln.

Die treibende Kraft hinter 3dfx war anfangs durchaus ein "Consumer-Market"; nur sah man da nicht den PC, sondern Arcade-Machines. Und auch 3dfx hat nur das genommen, was im professionellen Bereich bereits "Usus" war.

Und weil du "Toy Story" ansprichst: Die Toolchain für Renderman hat in den letzten 15 Jahren massiv von Entwicklungen in der Echtzeitgrafik profitiert.

Daß beide Bereiche voneinander profitierten, werde ich nicht abstreiten. Nur Videospiele - also das letzte Glied in der Nahrungskette - als Hauptgrund für technologische Entwicklungen heranzuziehen, halte ich für sehr weit hergeholt, weil eben wie oben aufgezeigt erst die Videospiele von der absolut bahnbrechenden professionellen Entwicklung profitierten; nicht umgekehrt.

Motion Capturing ist ein anderes Beispiel für den Einfluss des "Gaming": Die Idee ist uralt, und es gab schon in den 70ern und 80ern erste Versuche so etwas in Filmen einzusetzen. Das erste ernstzunehmende Produktivsystem wurde für ein Computerspiel entwickelt.

Gib doch mal eine Quelle dazu (und wenn Du sagst "Ist doch nur Forum! Warum Arbeit für Quellenrecherche machen?", dann brauchen wir uns gar nicht weiter unterhalten)! Eine pure Behauptung kann jeder aufstellen. Wenn man sich die Extras zum ersten "fotorealistischen" Spielfilm namens "Final Fantasy" anschaut, wurden nur für den Film etliche neue Techniken entwickelt; auch im "Motion Capturing", wovon selbstverständlich auch die Videospielindustrie zwangsläufig profitieren mußte. Hier hat man eine Deiner "Wechselwirkungen", da "Final Fantasy" bekanntermaßen vorher ein Computerspiel war; der Anreiz zu diesem fotorealistischem Fiasko also aus der Videospielwelt kam.

Der "professionelle Bereich" gibt weder die Stückzahlen noch die Umsätze her um so eine Entwicklung zu fördern. Das kann man jedem NVIDIA oder AMD Quatalsbericht entnehmen.

Unsinnige Behauptung. Demnach dürfte es keine rein professionellen Programme geben. In der Regel wird der Consumer-Markt mit einem Bruchteil des technisch machbaren bedient; ansonsten bräuchte es keine Profis mehr. Professionelle "Werkzeuge" jedweder Art sind in den meisten Teilen dem, was der "Normalverbraucher" kaufen kann, weit überlegen.

Außer dir kenne ich ehrlich gesagt auch niemanden der den Einfluss von Consumer GPUs auf die gesunken Kosten pro GFLOP bestreitet.
Die Auswirkungen sind dabei auch offensichtlich, sowohl beim "normalen" Cluster Computing als auch im Bereich der Supercomputer sind es die GPUs die die Kosten drücken.
Anzunehmen dies wäre möglich wenn der GPU Markt 80% kleiner wäre ist schon sehr gewagt.

Wenn ich doch der einzige bin, der Deine Behauptungen dermaßen anzweifelt, dann dürfte es nicht die geringste Mühe machen, einfach nur eine einzige Quelle oder gar fundierte Untersuchung dazu zu nennen. Etwas zu behaupten, weil "es einem logisch" erscheint, ist eine Sache; etwas zweifelsfrei zu belegen, eine andere - und meist fallen dann die Behauptungen zusammen.

Keine Ahnung was du mir damit sagen willst.

Nicht mehr oder weniger als Du selbst mit diesem "wichtigen" Punkt der Liste. Du nennst eine unsinnige "Wechselwirkung"; ich nenne eine weit größere mit wesentlich mehr Einfluß auf unsere Sprachgebung (nicht die Entwicklung).

Es geht darum, dass ein Spiel einen Schriftsteller beeinflusst. Hohlbein habe ich als Beispiel genommen, weil es gut in ein WoW-affines Forum passt.

Wenn das Deine Intention war, warum fragst Du Dich dann, was ich mit meinem wesentlich einflußreicherem Beispiel "bezwecken" möchte? Du hast herausgestellt, daß Hohlbein Jahre nach Einführung des MMORPGs sowas wie ein MMORPG beschrieb, was demnach keine Neuerung war. Ich habe bemerkt, daß Du da wohl recht falsch liegst und eine weit einflußreichere "Wechselwirkung" herausgestellt.

Natürlich gibt es wahrscheinlich noch unzählige andere Beispiele. "Tron" würde ich z.B. für wesentlich Gaming-orientierter halten als "Neuromancer".

Was zeigt, daß Du "Neuromancer" nicht gelesen hast. "Tron" hat einige Arcade-Games beeinflußt und die Phantasie von Informatik-Studenten beflügelt. "Neuromancer" ging darüber hinaus; inspirierte Dutzende von Spielen ("Shadowrun" oder das bahnbrechende "System Shock" anyone?) und prägte unsere Vorstellung von der "endgültigen Cyberwelt", die glücklicherweise heute noch keine Wirklichkeit ist.

Die Digitale Musik hätte es ohne Computerspiele wohl auch schwerer gehabt: Eine Soundkarte hatte man in der Regel wegen Computerspielen im Rechner, und nicht weil man per MIDI-Port Musikinstrumente anschließen wollte.

Und hier frage ich mich, ob Du endgültig trollen möchtest. Ein MIDI-Port ist Grundlage für einen Sequenzer gewesen, weswegen der Atari ST so ein beliebtes Teil bei Musikern war - der Sequenzer war das A und O in der elektronischen Musik! Der MIDI-Port selbst wurde mit dem "Wave-Blaster" auch für Spieler verdammt interessant, weil sich plötzlich nicht alles wie Gequäke anhörte.
Schon mal ein "Tracker"-File auf dem Amiga gehört? Du weißt, was Roland war im Bereich der Soundkarten?

Als kleiner Exkurs: Computer-Soundkarten waren anfangs überhaupt nicht verbreitet. Für Spiele gab es in der 386er-Zeit einfache Mono-"Audioblaster" für 130,- DM, die weit hinter den Möglichkeiten eines Amigas zurückblieben. Roland-Karten - rein für den Musiker-Betrieb ausgelegt - kosteten gleich das dreifache. Dennoch war der Computer aufgrund der Midischnittstelle unentbehrlich: Man konnte Samples in die angeschlossenen Geräte laden; obendrein ist die MIDI-Schnittstelle unentbehrlich als sog. "Sequenzer": Mehrere Synthies werden darüber koordiniert; spielen also gleichzeitig. Das war der Grund, warum kaum ein Hobby-Musiker auf einen Atari ST verzichten konnte, obwohl der Amiga als reiner Synthie die besseren Karten hatte.

Für den PC gab es später auch GM-Karten - da hörte sich dann eine Videospielmusik nicht mehr wie Gequäke, sondern tatsächlich wie Musik an (vorgefertigte Samples von Instrumenten, die auf eine Speicherbank geladen und via GM angesprochen wurden - hat sich nie durchgesetzt, weil Sampling die einfachere Methode ist).

Nur so konnte man die MP3s aber direkt am Rechner hören oder auf der Steroanlage ausgeben. Auf CD brennen wäre auch schwer gewesen, denn es waren Computerspiele wie "Rebel Assault" die dem CD Laufwerk (und somit auch den späteren Brennern) im Privatbereich zum Durchbruch verholfen haben.

Noch mehr Trollerei? Nur mal so gefragt: Bist Du alt genug bzw. hast Du in dieser Zeit Erfahrungen gesammelt, um die ersten CD-Brenner gerade aus professioneller Sicht überhaupt mitbekommen zu haben? Nur als Hint: Datenbanken, Datenbanken, Datenbanken - und Backups (wobei gerade bei Backups die CD-ROM hinter DAT-Bändern zurückblieb, dennoch sehr viel bequemer war)!

Während ich "damals" ein 50er-Pack CD-ROMs für den Heimverbrauch orderte und einen ganzen SCSI-Brenner hatte, brauchten wir in der Firma 1.000 Rohlinge und 20 Brenner - und ich war bereits ein "Freak", was den Heim-Verbrauch anging! Man erzähle mir nicht, der "Heimbedarf" hätte hier auch nur annähernd was zum Preisverfall und der Entwicklung von CD-Brennern großartig beigetan.

Was MP3 angeht, ist dies ein ganz anderes Thema. MP3 hat nicht wesentlich zur Verbreitung des Formats beigetragen (das war einzig und alleine das Internet).

MP3 als Verbreitungsgrund für Soundkarten anzugeben, ist übrigens komplett unsinnig: Mittlerweile gehörte das, was bei den ehemaligen "Heimcomputern" zum Standard gehörte, auch beim PC dazu. Nicht MP3 bedingte Soundkarten; sondern MP3 konnte nur verbreitet werden, weil Soundkarten der Standard war! Zur Speicherung brauchte es übrigens einen CD-Brenner; mit Umwandlung gleich im Wav-Format, um das auf der heimischen Anlage abzuhören.

In erster Linie hat sich CD-ROM gerade im Heimbereich seinerzeit durchgesetzt wegen der hohen Menge an Raubkopien aus der Spiele- und vor allen Dingen aus der professionellen Branche (40-Disketten-Versionen eines Office-Pakets waren eben nicht so prickelnd - CDs mit Office und ca. 300 anderen professionellen Programmen umso mehr). Datenbanken, Datensicherung und nicht zuletzt und gerade wegen der Audio-CD-Kopie (bei dem Begriff PLEXTOR müsstest Du direkt anspringen, falls Du die damalige Zeit tatsächlich bewußt und aktiv miterlebt hast) ermöglichten den Durchbruch!

Die beschreibbare Audio-CD (natürlich damals fast ausschließlich mit PLEXTORs) ist übrigens der Tod des alternativen datenreduzierten Formates von Sony namens MD gewesen. "Fach"zeitschriften wie die AUDIO wollten auf Biegen und Brechen erklären, daß eine CD-Kopie nicht mal an die Qualität einer MD heranreicht, um das Format zu retten (keine Ausgabe, wo die AUDIO nicht wohlwollend über die MD berichtete, während die beschreibbare CD das Buhkind war).
Auch Systeme wie die "Superdiskette" mit 100 MB wurden durch die Brenner vernichtet - Streamer im Heimbereich gehörten innerhalb Monaten der Vergangenheit an! Billige Kopien von teuren Computerspielen war da nur die Spitze des Eisberges - und erledigte sich auch bald mit neuen Kopierschutzformaten (siehe "X-Wing vs. Tie-Fighter").

Lustigerweise kannte ich damals einen der "Remixer", der "remasterte" CDs (selbstverständlich in Gold) für bestimmte Labels herstellte: Solche CDs, von einem PLEXTOR eingelesen, bearbeitet und danach mit einem handelsüblichen CD-Brenner als "Master" erstellt, wurden von den "Fach"magazinen abgefeiert, während andererseits behauptet wurde, eine CD-Kopie würde gerade mal 70 % der Inhalte einer normalen CD reproduzieren können!
 
Zuletzt bearbeitet von einem Moderator:
in your face biatch!

lerne vom meister!
 
lerne vom meister!

Arschloch . In jener Zeit war ich tatsächlich sowohl privat als auch beruflich sehr an der Entwicklung im PC-Bereich interessiert. Meine Leidenschaft galt der Programmierung, den Spielen als auch der Musik (sowohl "schöpferisch" als auch in sog. "audiophiler Hinsicht" - damals habe ich mir halt jene "Ausnahmekomponenten" wie die Boxen "IQ TED 4" oder den Amp "Onkyo A 9711" angeschafft, weil ich wollte, daß sich meine Kopien als auch das selbstkomponierte Zeuch gefälligst so anhören, wie es gedacht war).

Die Entwicklung der verschiedenen "Arbeitsaufgaben" eines PCs habe ich eben aus vielerlei Sichtweise mitgemacht (teilweise im wahrsten Sinne des Wortes. Mein erstes CD-ROM war ein "Double-Drive". Danach habe ich jedes CD-ROM innerhalb der damals nur 6-monatigen Garantie-Zeit ausgetauscht, weil keines überhaupt auch nur in der Lage war, meinen Anforderungen zu genügen bwz. vorher den Geist aufgab - bis zum PLEXTOR 12x. PLEXTORs waren "damals" mindestens 3-fach teurer als "normale Geräte" - waren aber die einzigen CD-ROMs, die Audio-Dateien aufgrund ihrer besonderen Struktur fehlerfrei auslesen konnten und darüberhinaus jahrelang hielten, was der Firma bis heute den guten Ruf beibrachte - nur leider sind das heute nur noch OEM-Teile und keine Eigenentwicklungen mehr. Habe ich übrigens PLEXTOR erwähnt und das in Großbuchstaben geschrieben?).

Der Hardware-Lieferant unserer kleinen Firma verwendete damals übrigens tatsächlich den Begriff "LaVerne-approved" (seine Kundschaft kannte mich teilweise auch persönlich)! Ich bekam von ihm neue Hardware und habe die in der Freizeit und auf der Arbeit auf Herz und Nieren getestet - was von mir als "gut" befunden wurde, wurde da auch nur ausschließlich verkauft, was dem Laden einen verdammt guten Ruf einbrachte (und mir dauernd die neueste Hardware für lau oder wenig Geld).

Ich mag mich da weit aus dem Fenster lehnen, aber weil ich die Anfänge der "modernen Videospielzeit" aktiv vom C64 bis heute mitgemacht habe (wie übrigens auch Tikume), gleichzeitig auch in der Softwareentwicklung für professionelle Anwender tätig war (und kein "Kleinscheiss". Das Ding, was ich seinerzeit strukturell als auch prorgammtechnisch hauptsächlich mitenwickelt habe, wurde wie folgt bewertet: "Es gibt wahrscheinlich keinen europäischen Mitbewerber - eventuell nicht mal weltweit -, der seine Daten dermaßen schnell und speziell abfragen kann!"), mich ein wenig für Literatur interessiere und obendrein noch "absoluter Filmfreak" bin, glaube ich durchaus, da ein Wörtchen mitreden zu können, was die Entwicklung des Films und der Videospiele angeht!

Widerlegenden Quellen meiner persönlichen Erfahrung bzw. der Tatsachen dessen, was ich hier bereits gepostet habe, bin ich selbstverständlich aufgeschlossen! Ich behaupte nicht mal, daß meine Ansicht die "absolut richtige" ist - nur da braucht es halt mehr als Behauptungen!
 
Zuletzt bearbeitet von einem Moderator:
Die treibende Kraft hinter 3dfx war anfangs durchaus ein "Consumer-Market"; nur sah man da nicht den PC, sondern Arcade-Machines. Und auch 3dfx hat nur das genommen, was im professionellen Bereich bereits "Usus" war.
Zu der Zeit entstand auch Nvidia. ATI hat seine Grafikchips Anfang der 90er ebenfalls zu dedizierten Coprozessoren ausgebaut. Und ebenso wie 3dfx haben sie eben genau nicht das genommen was usus war: Sie alle haben sich nämlich auf real-time rendering spezialisiert. Das war ein komplett anderer Markt als der von SGI, und daraus entstand auch eine vollkommen neue Hardware Architektur. Eine Architektur die SGI allerdings später vom Markt gefegt hat.


Gib doch mal eine Quelle dazu (und wenn Du sagst "Ist doch nur Forum! Warum Arbeit für Quellenrecherche machen?", dann brauchen wir uns gar nicht weiter unterhalten)! Eine pure Behauptung kann jeder aufstellen. Wenn man sich die Extras zum ersten "fotorealistischen" Spielfilm namens "Final Fantasy" anschaut, wurden nur für den Film etliche neue Techniken entwickelt; auch im "Motion Capturing", wovon selbstverständlich auch die Videospielindustrie zwangsläufig profitieren mußte. Hier hat man eine Deiner "Wechselwirkungen", da "Final Fantasy" bekanntermaßen vorher ein Computerspiel war; der Anreiz zu diesem fotorealistischem Fiasko also aus der Videospielwelt kam.
1993 - Acclaim
http://www.motioncap...ndustry-history


Unsinnige Behauptung. Demnach dürfte es keine rein professionellen Programme geben. In der Regel wird der Consumer-Markt mit einem Bruchteil des technisch machbaren bedient; ansonsten bräuchte es keine Profis mehr. Professionelle "Werkzeuge" jedweder Art sind in den meisten Teilen dem, was der "Normalverbraucher" kaufen kann, weit überlegen.
Unsinnige Behauptung.
Bei Grafikbeschleunigern werden im Consumer-Bereich genau die selben Chips verbaut wie im "professionellen" Bereich:
http://en.wikipedia....orce_700_Series
en.wikipedia.org/wiki/Nvidia_Quadro
http://en.wikipedia....ki/Nvidia_tesla

Der einzige Unterschied besteht in der Perepherie (z.B. dem Speicher), und dass man die Consumer-Produkte manchmal künstlich beschneidet (double-precision units).
Genau deshalb kommen die großen Stückzahlen zu Stande, und das drückt den Preis.

Wenn ich doch der einzige bin, der Deine Behauptungen dermaßen anzweifelt, dann dürfte es nicht die geringste Mühe machen, einfach nur eine einzige Quelle oder gar fundierte Untersuchung dazu zu nennen. Etwas zu behaupten, weil "es einem logisch" erscheint, ist eine Sache; etwas zweifelsfrei zu belegen, eine andere - und meist fallen dann die Behauptungen zusammen.
http://dl.acm.org/ci...FTOKEN=28189012
http://dl.acm.org/ci...FTOKEN=28189012
http://dl.acm.org/ci...FTOKEN=28189012
http://www.ncsa.illi...lci09_paper.pdf





Wenn das Deine Intention war, warum fragst Du Dich dann, was ich mit meinem wesentlich einflußreicherem Beispiel "bezwecken" möchte? Du hast herausgestellt, daß Hohlbein Jahre nach Einführung des MMORPGs sowas wie ein MMORPG beschrieb, was demnach keine Neuerung war. Ich habe bemerkt, daß Du da wohl recht falsch liegst und eine weit einflußreichere "Wechselwirkung" herausgestellt.
[...]
Was zeigt, daß Du "Neuromancer" nicht gelesen hast. "Tron" hat einige Arcade-Games beeinflußt und die Phantasie von Informatik-Studenten beflügelt. "Neuromancer" ging darüber hinaus; inspirierte Dutzende von Spielen ("Shadowrun" oder das bahnbrechende "System Shock" anyone?) und prägte unsere Vorstellung von der "endgültigen Cyberwelt", die glücklicherweise heute noch keine Wirklichkeit ist.
Neuromancer war aber als Buch einflussreich. Für die These "Games beinflussen andere Kulturbereiche" ist das unerheblich, da es die These weder belegt noch widerlegt.



[viel Musik Blabla]
Das ist doch vollkommen irrelevant.
In den 90er Jahren hat man sich in der Regel einen Soundblaster eingebaut um Musik und Soundeffekte in Spielen zu hören. Wenn du der Meinung bist es hätte mehr Musiker als Gamer mit Soundkarte gegeben, dann wäre das ein echter Grund eine Quelle zu fordern.

Noch mehr Trollerei? Nur mal so gefragt: Bist Du alt genug bzw. hast Du in dieser Zeit Erfahrungen gesammelt, um die ersten CD-Brenner gerade aus professioneller Sicht überhaupt mitbekommen zu haben? Nur als Hint: Datenbanken, Datenbanken, Datenbanken - und Backups (wobei gerade bei Backups die CD-ROM hinter DAT-Bändern zurückblieb, dennoch sehr viel bequemer war)!
Und diese Datenbanken wurden in Privathaushalten gesichert?

Was MP3 angeht, ist dies ein ganz anderes Thema. MP3 hat nicht wesentlich zur Verbreitung des Formats beigetragen (das war einzig und alleine das Internet).
Richtig. Das Internet hat die MP3s geliefert, und dank Soundkarten und CD-Brennern in Privathaushalten konnten die Leute etwas damit anfangen.


MP3 als Verbreitungsgrund für Soundkarten anzugeben, ist übrigens komplett unsinnig: Mittlerweile gehörte das, was bei den ehemaligen "Heimcomputern" zum Standard gehörte, auch beim PC dazu. Nicht MP3 bedingte Soundkarten; sondern MP3 konnte nur verbreitet werden, weil Soundkarten der Standard war!
Genau das habe ich geschrieben... und die Soundkarten kamen durch Computerspiele in die Privatrechner, nicht durch Musiker.
 
Zurück