07.10.2008, 12:39 | #1001 (permalink) |
Toll finde ich die Modelle davon auch... die Umsetzung ist allerdings äußerst mangelhaft - wenn man sie denn auf einem 14KM Seitenlänge Gelände überhaupt ansatzweise realistisch einsetzen könnte..... Euch st schon klar welche Reichweite Flugzeugradarsysteme und die Meisten Raketen haben? Selbst die Winzige Sidewinder hat eine Reichweite von 18 Meilen!!! So gross ist nichtmal das Arma2 Gelände.... Würde es eine dynamische Viewdistance in Flugzeugen geben, so dass man auch in 5KM höhe noch was sieht und man von dort aus GPS oder Lasergelenkte Bomben abwirft, hätte ich nichts dagegen. Die jetzige Art, die Jets wie Helikopter im Tiefflug zu Nutzen und wenn möglich noch mit der Boardkanone Bodenziele zu bekämpfen (A10 ausgenomen)ist allerdings äußerst Lächerlich. Mal ehrlich, die Kamphelikopter/A10+SU25 passen da doch 10mal mehr ins Gefecht. |
|
07.10.2008, 13:44 | #1002 (permalink) |
Registriert seit: 26.11.2006
Ort: Kiel, S-H
Alter: 57
Beiträge: 3.013
|
Wie gesagt, sieh es als Hollywoodeffekt an (Filme wirste doch auch sehen können ohne gleich die Krise zu bekommen ) und kümmer Dich nicht weiter darum.
Es ist müßig sich über derartige Randeffekte des Spiels aufzuregen, Kernelement ist nun mal die Infantrie.
__________________
Nur ein Beispiel das zeigt wie BI "support" definiert: https://feedback.bistudio.com/T75547 |
07.10.2008, 15:36 | #1003 (permalink) |
Registriert seit: 16.11.2006
Ort: Paris-Rom-Erkner
Alter: 53
Beiträge: 6.205
|
Ich bin aber schon genaueres Lesen von dir gewohnt. Es gibt KEINE gesonderte Simulation unterschiedlicher Wellenlängen sondern nur die unterschiedlich visuelle Darstellung von "the one and only" Licht. Das meinte ich aber nicht. BIS müsste "nur" die Simulation von Licht mehrfach in der engine clonen und die Ausbreitungsmerkmale je "Wellenlänge" unterschiedlich parametrisieren und fertsch ist die simulation von Radar, IR, Laser......
__________________
|
07.10.2008, 15:41 | #1004 (permalink) |
Registriert seit: 04.07.2003
Beiträge: 100
|
LOL, natürlich... das Licht wird ja in der RV sicher so physikalisch korrekt berechnet, daß dann alle anderen Frequenzen genauso gut funktionieren werden indem man ein paar Parameter verdreht... abgesehen davon, daß es in der RV bisher nur eine richtige Lichtquelle geben kann...
__________________
VBS2! |
07.10.2008, 16:58 | #1005 (permalink) |
Vielleicht hast du Recht..... dann sollten sie es aber um gottes Willen nicht als Simulation bezeichnen. Andererseits... die Zeichen Weltweit stehen auf Sturm und ich bin froh wenn wir alle in Mitte 2009 noch in der Lage sind überhaupt was zu Spielen...... |
|
07.10.2008, 17:37 | #1007 (permalink) |
Registriert seit: 16.11.2006
Ort: Paris-Rom-Erkner
Alter: 53
Beiträge: 6.205
|
Du bist zu sehr dem Bekannten verhaftet und verlierst dabei den Blick fürs Mögliche. Was spricht dagegen "Lichtquellen" oder nennen wir sie "Strahler" einfach zu kathegorisieren, einfach nach Nummern, Typ1, Typ2 etc. Dann definiert man für Sensoren ([simulierte]Auge, Kamera, IR Sensoren...) für welchen Typ "Strahler" sie empfindlich sind und mit welchem simulierten "Dämpfungsfaktor". Inwiefern Ausbreitung, Reflektion, Beugung etc überhaupt in der ArmA Engine simuliert ist - keine Ahnung - aber auf jeden Fall könnte man versuchen es erstmal halbwegs zu separieren und unterschiedlich zu simulieren. Wenn zB Typ 1 = normales Licht Typ2 = IR Typ3 = Radar ist, dann sollten Sensoren Typ 1 nichts von Typ2+3 Strahlern sehen Typ 2 Typ1 nur als Rauschen und Typ 3 nicht Typ 3 nichts von Typ 1 und nichts von Typ 2 (ausser man simuliert korrekt einen Typ2 Strahler hoher intensität kombiniert mit einem Typ3 Strahler geringer Intensität) Ist das Unmöglich?
__________________
|
08.10.2008, 08:25 | #1008 (permalink) |
Registriert seit: 04.07.2003
Beiträge: 100
|
Nein, das habe ich nie gesagt. Du meintest nur, daß man das aktuelle Licht-Modell kopieren und vervielfachen müßte. Und das war falsch. Und das ist alles, was ich gesagt hab.
__________________
VBS2! |
08.10.2008, 08:36 | #1009 (permalink) |
His Awesomeness!
Registriert seit: 25.07.2006
Ort: Regnum Borussiae
Beiträge: 9.282
|
Jap, man bräuchte es nur erweitern und zwar wieder an meiner Lieblingsstelle, den Shadern, die ja für Transform/Lighting/Texturing/Mapping verantwortlich sind. Und dann bräuchte man nur Zustände auswerten und entsprechend Mappen. Dass wäre in HLSL-Shadern einfach steuerbar über ne Technique, die man ausserhalb der Shader im Programmcode (Displayloop) zündet...Aus die Maus:
[C++] // m_pEffect Instanz eines Shaderobjekts switch (optics) { case 1 /* FLIR */: m_pEffect-> SetTechnique(“FLIRVISION"); break; case 2 /* RESTLICHT */: m_pEffect-> SetTechnique(“NVISION"); break; case 3 /* RÖNTGEN */: m_pEffect-> SetTechnique(“RGVISION"); break; default: m_pEffect-> SetTechnique(“NORMALVISION"); break; } [/C++] Im Shader würde man jeder Technique jetzt ne andere Renderfunktion zuweisen, in der die Lichtformeln angepasst sind. So kann man Lichtquellen ein- oder eben ausschliessen. Bei FLIR/WBG bräuchte es bspw kein diffuses Lighting der Punktlichter im Raum, weil die "Leuchtkraft" des Pixels/Texels durch den Wärmekoeffizienten und die Polarisation der Optik besimmt wird, also wird der diffuse Faktor der Umgebungsbeleuchtung (Hemisphärenlicht, Sonne etc.) in der Lichtgleichung einfach missachtet und die endgültige Farbe des Pixels ohne diesen Faktor berechnet. usw. usf. Richtige Photonen durch die Gegend zu ballern oder alles Raytracing zu unterziehen ist atm nicht wirklich in RT-möglich. Zumindest nicht bei der Szenengröße und Fülle. |
08.10.2008, 11:59 | #1010 (permalink) |
Registriert seit: 16.11.2006
Ort: Paris-Rom-Erkner
Alter: 53
Beiträge: 6.205
|
Das währe nur der Design-Ansatz des Ahnungslosen gewesen in völliger Unkenntnis der aktuellen Implementierung. Trotzdem halte ich es für den einzig richtigen Ansatz um diesen Aspekt in der Engine zukunftssicher zu implementieren - alles gesondert zu behandeln. Bis dahin kann ja flickflacks Ansatz helfen wenn es nicht die CPU/GPU zerreisst. @Flickflack: Kann man damit auch radarreflektion simulieren? Derzeit ist für den vehiclescanner einfach nur eine Art "radarfootprint" definiert, egal in welcher Laage das vehicle ist und egal wie die Wetterbedingungen sind (wenn ich richtig informiert bin) Wenn nun eine Lichtquelle der Klasse "Radar" die Umgebung ausleuchtet, dann entstehen besonders helle Reflektionen auf Flächen, welche als solche definiert sind. Könnte man dies nutzen um nur vehicles "Radar" reflektieren zu lassen und den virtuellen radarempfänger nur Licht ab einer bestimmten intensität anzeigen zu lassen?
__________________
|
08.10.2008, 14:18 | #1011 (permalink) |
Registriert seit: 14.04.2003
Ort: Luxemburg
Beiträge: 14
|
Ja, aber dieses Argument gilt nicht wirklich... Beispiel: Läuft ein Soldat vor mir und plötzlich ist er einen Meter mehr auf der linken Seite, oder fliegt ein Jet über mich und "beamt" sich 10 Meter nach links ist relativ gesehn genau das gleiche, und nervt beide Male gleich stark. Schlechter Ping, bleibt schlechter Ping, egal op Infanterist oder Pilot! Und warum sollten Flugzeuge in Arma keine Daseinsberechtigung haben? In Ofp könnte ich dem ja noch zustimmen, immerhin konnte man da kaum mehr als 2000m Sichtweite einstellen, egal auf welchem PC. Bei Arma sind selbst die 10000m, bei entsprechendem PC drin, und somit kann man seine Ziele schon aus grosser Entfernung bekämpfen. --> Realistisch |
08.10.2008, 14:26 | #1012 (permalink) |
Registriert seit: 26.11.2006
Ort: Kiel, S-H
Alter: 57
Beiträge: 3.013
|
Sein Ansatz würde performancemäßig theoretisch keine Auswirkungen haben, da lokal der Sichtmodus auf andere Texturen/Shader gewechselt wird. Ich möchte Wetten das ungefähr genau der Mechanismus ist, den VBS2 für das Wärmebild anwendet. Allerdings zieht die Sache einen kleinen Haken mit sich, jeder zusätzliche Sichmodus benötigt einen Satz Shader auf den umgeschaltet wird (kein Problem) unter Umständen aber auch zusätzliche Texturen, deren Speicherplatz sehr schnell zum riesigen Problem werden kann weil das Streaming dann deutlich häufiger gefragt sein wird.
__________________
Nur ein Beispiel das zeigt wie BI "support" definiert: https://feedback.bistudio.com/T75547 |
08.10.2008, 14:34 | #1013 (permalink) |
Registriert seit: 13.04.2003
Ort: Monerica
Alter: 42
Beiträge: 32.977
|
Vom Platz her seh ich als Endanwender kein Problem .. 16GB hat ArmA momentan bei mir. Da wären +6gb zum Hauptspiel für ein FLIR und andere Sichtmodi leicht zu verschmerzen. Oder meintest du Speicherplatz im Sinne von RAM? Weiss ja nicht wielange die Engine braucht um son Shaderwechsel auszuladen und durchzuführen. Beim Wechsel von Tag auf Nacht per Skiptime, bei NVG & setaperture, oder Shaderless (beim Speichervorgang sieht man des häufig), ist von einem Ladevorgang sogesehen ja nichts zu merken. Aber mit nem Haufen Texturen der gewechselt werden muss, sähe das wohl auch schon wieder anders aus.. Im Interview war afaik auf die Frage VBS2 FLIR ja/nein nur die Rede vom unheimlichen Arbeitsaufwand den es benötigte, und das es deshalb wohl nicht in ArmA2 schaffen würde. Der Unterton von "ätschibätsch, exclusive Feature" lassen wir mal raus |
08.10.2008, 14:47 | #1014 (permalink) |
Registriert seit: 20.02.2008
Beiträge: 34
|
Wär ich mir gar nicht so sicher, was ich im VBS2 Customer Support Forum zum Thema ArmA 2/ArmA2 Engine so mitbekommen habe ist es gar nicht so sicher das die VBS 2 Version mit der neuen (Arma2) Engine alle features vom VBS 2 mit ArmA 1 Engine bekommt. ... Muss aber dazu sagen das die Infos recht wage sind. Geändert von laggingape (08.10.2008 um 14:53 Uhr). |
08.10.2008, 14:49 | #1015 (permalink) |
Registriert seit: 26.11.2006
Ort: Kiel, S-H
Alter: 57
Beiträge: 3.013
|
Ich meinte natürlich den Rambedarf, zumal teilweise ohnehin bei Texturenqualitäten unverständlich geklotzt wird.
Fallschirm, Blätter und (teilweise) Uniformtexturen sind oft deutlich detailierter als sie jemals auch auf härtesten Einstellungen sichtbar sind. Ein zusätzliches Texturenset halbiert grob betrachtet somit den verfügbaren Speicherplatz, Ladezeiten im direkt sichtbaren Bereich oder Ansichtumschaltzeiten (ausblenden, laden, einblenden) im niedrigen 2stelligen Bereich wären jedenfalls sehr *räusper**piieep*.
__________________
Nur ein Beispiel das zeigt wie BI "support" definiert: https://feedback.bistudio.com/T75547 |
08.10.2008, 14:56 | #1016 (permalink) |
Registriert seit: 13.04.2003
Ort: Monerica
Alter: 42
Beiträge: 32.977
|
Macht man halt ne Ladeanimation rein, wie früher bei Resident Evil Oder verwendet fürs FLIR z.B. einfach gekachelte Texturen, ist ja eh alles nur Schwarz & Weiss. Somit hätt man dann für ein tolles feature ganze 100kb zu laden Hää? VBS2 = ArmA2 = VBS2 + ArmA1 ? evtl. war mein Frühstückstoast vergammelt und ich werde fiebrig ... aber für mich ergibt das keinen Sinn |
08.10.2008, 14:59 | #1017 (permalink) |
Registriert seit: 20.02.2008
Beiträge: 34
|
Hast recht, verdammt kompliziert geschrieben , ich glaub eher mein Toast war vergammelt. Bin in der Arbeit, sprich hab jetzt nicht wirklich zeit nochmal was zu schreiben. |
08.10.2008, 16:15 | #1018 (permalink) |
Registriert seit: 23.11.2005
Beiträge: 1.935
|
VBS2 wird in Version 2 mit den Features der VRE3 ausgestattet werden/sollen/mögen ....
Die jetzige VBS2 Version (vor 2.0) hat das noch nicht. Die Frage ist also: Was fällt weg, was kommt dazu? Ist doch net so schwer...
__________________
>Windows 7 ab 69 EURO!!< !!!!NEW: Duke Nukem Forever - It´s down!
Letzter Login am 10.12.2010. Tschüss und alles Gute. |
08.10.2008, 16:17 | #1019 (permalink) |
His Awesomeness!
Registriert seit: 25.07.2006
Ort: Regnum Borussiae
Beiträge: 9.282
|
Ist natürlich doch ein Argument, weil sich ein Flugzeug schneller bewegt und damit gravierendere Richtungsänderungen über größere Distanzen hinweg vollführen kann, als ein Fusssoldat. Das dürfte sich beweisen lassen @Lester: Die Texturen sind dabei egal, Du hast bereits mindestens alle diffusen Texturen am Start, was endgültig für eine Farbe rauskommt ist dabei relativ Latex. Der Pixelshader (was allerdings lustigerweise auch der Vertexshader kann, also hier der Effekt "Nightshader") definiert nach bestimmten Formeln, welche Farbe entsteht. Die endültige Texelfarbe wird durch Lichteinfluss und Texelfarbe (der Ausgangstextur) bestimmt, plus eigenem Kram. Der Nightshader in OFP ist eigentlich recht simpel und ein gutes Beispiel, wenn er so funktioniert wie ich mir das von aussen so denke. Im Endeffekt macht da die HW T&L-Pipeline auch nix weiter, als alle Farben in den grünen Farbbereich zu schieben. Bei RGB(A) auch kein großes Problem. Man braucht kein zuvor gefärbtes Textureset. Deshalb einfach eine Textur - wie die dann endgültig aussehen soll, definieren die Shader. Obs jetzt grün wie in "NIGHTVISION" oder FLIR-Weiß ist und schnöde rauscht, is Brust. Wenn man jetzt aber noch doll mappen will und irgendwelche Sci-Fi-Krötenbuckelekelschimmel-Optik bauen will, denn brauchste natürlich neue Texturemaps. Jo. Aber für die normalen Sichtmodi reichts: Ich kann das Objekt und seine Textur identifizieren, dank irgendwelcher Attribute, und ich kann dieses Objekt nach bestimmten Kriterien entsprechend umgestalten. @IC: Mit dem Radar muss ich mal kurz nachdenken... Ich glaube das Aussenden von Strahlen wird in Spielen nicht implementiert, sondern eher der Effekt als solcher. Der Merovingian aus Matrix würde sagen: Cause and Effect. Das Cause ist gar nicht mal so wichtig, weil man die Wirklichkeit versucht nachzubilden, nicht abzubilden - zumindest im Spielsektor. Als erstes würde man versuchen das 3D-Scannerfeld auf eine 2D-Radaranzeigen zu blitten->RenderToTexture() - irgendwie fancy. Dann weiss man ja als Coder selbst, welche Objekte für Radar interessant sind, dass könnte einfach nur ne Eigenschaft/Attribut des Objekts sein, die im Vision-Mode "Radar" sichtbar gezeichnet werden. Und/oder man speich0rt das Attribut in der Vertexdeclaration: TEXCOORD ist der interessante Punkt, hier könnte man von TEXCOORD0 bis TEXCOORD7 Werte hinzufügen, unter anderem auch Eigenschaften (FLIR/RADARREFLECT->kein RADARREFLECT-Attribut, also in RADARVISION erst gar nicht zeichen, oder voller Alpha drauf....ferddich), die man widerum im Shader auswerten, einfärben und dank RenderToTexture() auf den Radarschirm in 2D anzeigen könnte. Man wertet vermutlich also eher logisch aus: Hat das Objekt eine "radarerfassbare" Höhe, reflektiert es Radarstrahlen etc. pp. Das könnte man dann verbinden mit der eigenen Position und nem Taster (Raypicking vermutlich) der die Objekt scannt, oder man rennt gleich durch den Szenengraph und weiss damit sofort wo man ist, und was "scanbar" im Umfeld rumgurkt. Senden und Empfangen, also physikalische Analyse, ist in Spielen, die wirklich echtzeitritisch sind, eher unwahrscheinlich. Man simuliert den Effekt und ein bissel "Rechnen und Erfassen", aber so richtig mit Strahlen und krassem Dingsbums nicht. Es sei denn, es ist ne 1A-Simulation, die sich nur mit einem Fahrzeug auseinandersetzt. Oder bald dank Multicores. Vermutlich aber geht die Hauptlast weiterhin eher in Grafik als Mechanik. Und bei ner Konzentration auf Grafik, wird man den Rest "tricksen"...watn kack langer Text! |
08.10.2008, 19:17 | #1020 (permalink) |
Registriert seit: 14.04.2003
Ort: Luxemburg
Beiträge: 14
|
Klar, das stimmt. Hab ich ja sogar selbst geschrieben, nur spielt es keine Rolle. Ein Fusssoldat ist nunmal meist nur wenige Meter vor mir, während sich ein Jet meist mindestens einige hundert Meter bis ein par Kilometer weit von mir weg ist. Das gleicht sich wiederum aus. Nehm ich einen nahen Soldaten ins Visier oder einen entfernten Jet, verschlechtern sich, wenn der Gegenspieler eine schlechte Verbindung hat, die Chancen ihn zu treffen beide male um mehr oder weniger den gleichen Wert |
Aktive Benutzer in diesem Thema: 1 (Registrierte Benutzer: 0, Gäste: 1) | |
Themen-Optionen | |
Ansicht | |
|
|
Ähnliche Themen | ||||
Thema | Autor | Forum | Antworten | Letzter Beitrag |
arma 1 addons kompatibel mit arma 2? | IntoTheLight | Mods & Addons | 30 | 01.09.2010 13:58 |