Ist Apples Vision Pro wirklich revolutionär?
HeimHeim > Blog > Ist Apples Vision Pro wirklich revolutionär?

Ist Apples Vision Pro wirklich revolutionär?

Apr 01, 2023

Folutile schreibt Tech

Folgen

--

Hören

Aktie

Apple hat ein unausgesprochenes Versprechen eingelöst, das es bereits 2015 gegeben hat (zumindest nicht öffentlich).

Der Vision Pro, auf den das in Cupertino ansässige Unternehmen eindeutig als seine Zukunft in der verbraucherorientierten Technologie setzt, wurde am 5. Juni auf der WWDC angekündigt.

Natürlich haben die Medien es aufgefressen – es war die größte Ankündigung des größten Software-Events des Jahres, das vom erfolgreichsten Unternehmen in der Geschichte der Menschheit ausgerichtet wurde.

Tim Cook, Apples Hirte seit 13 Jahren, bezeichnete den Vision Pro als „revolutionär“. Auch erwartet.

Aber ist es wahr? Ist Apples größte „One more thing“-Ankündigung des letzten Jahrzehnts wirklich revolutionär??

Und um fair zu sein: Wir haben kein Unternehmen erlebt, das die Ära des Personal Computing so gut gelesen und diktiert hat wie Apple in seinem fast 50-jährigen Bestehen.

Apple hat so oft Wetten platziert und das Spiel angekündigt, dass man leicht glauben kann, dass der Entscheidungssitz des Unternehmens tatsächlich von einem Wahrsager mit einer Kristallkugel besetzt sein könnte. Entweder das, oder Wozniak, Jobs und seine Kernschüler sind tatsächlich Zeitreisende aus der fernen Zukunft.

In den 70er Jahren war Apples Rolle in der Technologie, insbesondere für Verbraucher, revolutionär. Tatsächlich würde das, was wir heute PCs nennen, ohne das Jobs-Wozniak-Paar wahrscheinlich nicht in der heutigen Form existieren. Sie waren keine „Pioniere“ von GUI oder Displays (oder überhaupt irgendetwas anderem), aber das ist eigentlich nicht das, was revolutionär bedeutet. Laut diesem großen, langweiligen Buch mit zufälligen Wörtern, das man Wörterbuch nennt, bedeutet „revolutionär“, eine vollständige oder dramatische Veränderung herbeizuführen oder herbeizuführen.

Und wenn es in den frühen PC-Tagen der 80er Jahre jemals ein revolutionäres Produkt gab, dann war es der Apple Macintosh, einer der Nachfolger des Bestsellers Apple II (der Ende der 70er Jahre unbestreitbar das Gesicht des Personal Computing war).

Nach einer ruhigen 90er-Jahre-Ära (nicht aus Mangel an Versuchen; in den 17 Jahren zwischen 1984 und 2001 brachten sie die meisten Produkte in ihrer Geschichte auf den Markt. Die meisten waren erfolglos) kehrte Apple mit dem iMac zurück und wurde zum fröhlichen Gesicht von Computern und Verbrauchertechnologie (2001). Und von da an?

2004: der iPod. 2006: MacBook Air. 2008: iPhone. 2010: iPad.

Knall. Knall. Knall. Knall.

Für den Rest der 2010er-Jahre verlagerten sie ihren Fokus auf Hardware darauf, ihren Vorsprung zu behaupten, indem sie in den Markt für Wearables vordrangen.

2015: Apple Watch. 2016: AirPods.

Knall. Knall.

Ja, es gab Misserfolge (HomePod, Mülleimer-Mac, wir sehen zylindrische Enttäuschungen), aber jetzt, kaum drei Jahre nach Beginn der 2020er Jahre, ist Apple klar davon überzeugt, dass sie es wieder schaffen können.

Virtuelle Realität (VR):Ein simuliertes Erlebnis, das augennahe 3D-Displays verwendet, um Benutzern ein immersives Gefühl einer virtuellen Welt zu vermitteln.

Erweiterte Realität (AR):Eine Technologie, die ein computergeneriertes Bild über die Sicht eines Benutzers auf die reale Welt legt und so eine zusammengesetzte Sicht liefert.

Gemischte Realität:Eine Kombination aus VR und AR.

Erweiterte Realität:Der Überbegriff, der Virtual Reality (VR), Augmented Reality (AR) und Mixed Reality (MR) umfasst.

Wenn ich also im Grunde ein Videospiel spielen würde, bei dem das Tragen einer Brille mich vollständig in eine virtuelle „Welt der Zombies“ entführt, wäre das VR. Wenn das Tragen der Schutzbrille nur dazu führen würde, einen Zombie in mein Wohnzimmer zu bringen (und ich mir immer noch räumlich bewusst wäre, dass alle meine Möbel und Geräte um mich herum intakt sind), dann wäre das AR. Und wenn das Spiel eine Kombination beider Erlebnisse wäre (sagen wir, ich kann mein Wohnzimmer in die Zombie-Welt verwandeln und gleichzeitig alle meine Tische und Stühle als Oberflächen oder Requisiten verwenden), wäre das MR. Und nun ja, die erweiterte Realität ist das Feld, unter das all diese Fachbegriffe fallen.

Wie ich bereits sagte, setzt Apple stark darauf, dass die erweiterte Realität in der nächsten Version der Verbrauchertechnologie eine große Rolle spielt. Und um das zu erreichen, konzentrierten sie sich auf die Entwicklung einer MR-fähigen Brille – der Kombination aus VR und AR.

Warum mussten sie das tun?

Apples Vision Pro wurde gerade erst angekündigt, aber sie haben diese Reise schon vor langer Zeit begonnen. Bereits 2016 hatten die iPhone-Hersteller einen Baustein, an dem sie schon lange gearbeitet hatten: ARKit.

ARKit ist ein Software-Entwicklungskit für Entwickler, das erstmals mit iOS 11 auf der WWDC 2017 vorgestellt wurde. ARKit sollte, wie der Name schon sagt, Entwicklern dabei helfen, Augmented Reality-fähige Funktionen in ihre Apps zu integrieren. Im Laufe der Zeit wurden Fortschritte bei Computer Vision, Tiefenerkennungskameras und Objekterkennungstechniken genutzt, um diese Technologie in die Realität umzusetzen.

Doch die Grenzen von ARKit auf Handheld-Geräten zeigten sich sehr schnell.

Wer zu dieser Zeit ARKit nutzte, konnte schnell die gravierenden Einschränkungen der Technologie bemerken. In manchen Fällen war es sogar unpraktisch und bestenfalls trickreich. Beispielsweise funktionierte die Measure-Anwendung, die Apple kurz darauf in sein Betriebssystem-Release aufgenommen hatte, nicht ganz gut. Measure sollte Ihnen die genauen Abmessungen realer Objekte anzeigen, indem Sie einfach Ihre Kamera davor halten. Letztendlich waren einige der konsistentesten und praktischsten Anwendungsfälle für das, was Entwickler mit ARKit erstellt hatten, das Testen von Produkten in Ihrem Raum (z. B. die Verwendung der IKEA-App, um herauszufinden, wie 3D-Versionen von Möbeln in Ihrem Wohnzimmer aussehen würden). Cool, aber wirklich nicht so bahnbrechend.

Wenn Sie jemals die frühen AR-Erlebnisse der AR-Bitmoji-Funktionen von Snapchat oder anderer Apps, die ARKit nutzten, ausprobiert haben, würden Sie erkennen, wie sehr die Geräte eindeutig mit der räumlichen Wahrnehmung zu kämpfen hatten. Die frühe Einführung von ARKit machte zwei Dinge deutlich.

1. Die AR-Technologie war einfach noch nicht dort, wo sie sein sollte– und nicht unbedingt auf der Softwareseite.

2. Ein tragbares Gerät war die einzige Möglichkeit, mit AR ein wirklich immersives Erlebnis zu schaffen.

Diese beiden Dinge hingen von einem wichtigen, lästigen Problem ab: der Hardware.

Noah saß ein Jahr lang in seiner Arche fest?

Nun, im Jahr 2022 war Apple fünf Jahre lang in dem feuchten, schimmeligen und enttäuschenden Schiff der öffentlichen Missachtung namens ARKit gebliebenlange, ungeduldige Jahre.

Bei der AR- und VR-Technologie ist es wichtig zu beachten, dass viel Rechenaufwand erforderlich ist, um Sie davon zu überzeugen, dass etwas, das nicht vorhanden ist, tatsächlich existiert. Und es braucht viel mehr als nur Software, um es tatsächlich zu schaffen. Vor allem angesichts der Zeit – denken Sie daran, das war 2016–2018. Viele der innovativen Sensoren und Prozessoren, die den Vision Pro heute ermöglichen, gab es damals noch nicht einmal. Das Potenzial für erweiterte Realität in alltäglichen Konsumgütern war schon immer besonders hoch, aber die schiere Menge an technologischen Wundern, die dafür erforderlich waren, machte es unglaublich schwierig, das Konzept in die Praxis umzusetzen.

Angenommen, Sie möchten eine VR/AR-Lösung erstellen, die Microsoft Word im Wesentlichen ersetzen kann, jedoch in einer virtuellen Umgebung. Also kein physischer Desktop oder Laptop; Setzen Sie einfach eine Schutzbrille auf und voilà, MS Word liegt direkt vor Ihnen.

Das bedeutet vieleDinge.

Erstens gibt es keinen echten „Computer“, um dieses Microsoft Word auszuführen, da es sich um eine rein virtuelle Anwendung in einer virtuellen Umgebung handelt. Das bedeutet, dass die von Ihnen verwendete Schutzbrille entweder an einen Computer angeschlossen sein muss (in diesem Fall schließt sich der Kreis, wie bei der Erstellung kabelgebundener AirPods), oder das Gerät muss angeschlossen seinder Computer selbst.

Was die Art und Weise angeht, wie Sie Eingaben in diese „virtuelle Microsoft Word“-Anwendung eingeben würden, benötigen Sie dazu normalerweise ein Eingabegerät (z. B. eine Tastatur oder eine Touchscreen-Oberfläche).

Aber denken Sie daran, Sie stehen vor nichts. Im Idealfall besteht das Verkaufsargument Ihres Produkts darin, dass man zum Tippen eines Dokuments kein Telefon, Laptop oder ähnliches benötigt. Nur eine Schutzbrille und höchstens etwas Steuergerät (wie die Meta Quest-Handfernbedienung). Aber wie gesagt, je weniger Ausrüstung, desto praktischer, daher wäre es auch schön, überhaupt keine Handfernbedienung zu benötigen.

Sie benötigen also ein virtuelles Eingabegerät und außerdem einen virtuellen „Bildschirm“, auf dem das Microsoft Word-Fenster angezeigt werden soll. Diese beiden virtuellen Komponenten – der Bildschirm und die Tastatur – müssen auf etwas platziert werden, idealerweise auf einer ebenen Fläche wie einem Tisch oder Schreibtisch. Entweder das, oder sie schweben einfach vor Ihnen, aber auf realistische Weise.

Um dies zu erreichen, benötigen Sie ein intelligenteres räumliches Bewusstsein. Im Grunde Tiefensensoren. Und keine normalen Tiefenerkennungskameras, die seit 2018 in den meisten Flaggschiff-Telefonen enthalten sind. Sie benötigen einen sogenannten Light Detection and Ranging-Scanner. Kurz gesagt: LiDAR. Diese sehr komplizierte und sehr teure Technologie findet man überwiegend in Überwachungsdrohnen und Satelliten. Ja. Satelliten. Um es kurz zu machen: Bei LiDAR wird grundsätzlich ein Laser verwendet, der Licht auf ein Objekt oder eine Oberfläche sendet und dann die Zeit misst, die das reflektierte Licht benötigt, um zum Empfänger zurückzukehren. Dies trägt dazu bei, sehr genaue, hochauflösende 3D-Darstellungen der Umgebung zu erstellen, die reale Dimensionen von Entfernung, Länge, Atemzug und sogar Tiefendimensionen wie Höhe und Volumen darstellen. Denken Sie daran, dass diese Art von Technologie damals nicht nur Zehntausende Dollar wert war, sondern auch nicht klein genug war, um in ein tragbares oder handliches Verbraucherprodukt wie eine einfache Schutzbrille oder ein Telefon zu passen (naja, Fairerweise muss man sagen, dass Samsung es damals schon schaffen konnte. Nur so.

Nehmen wir nun an, Sie haben die gesamte Software und Hardware erhalten, die Sie zum Erstellen dieser virtuellen Microsoft Word-Anwendung benötigen. Hier kommt der eigentliche Clou: Wie sorgt man dafür, dass eine Anwendung, die man nicht direkt vor Augen hat, bei der Nutzung glaubwürdig und real aussieht?

Um das zu erreichen, müssen Sie eine Schutzbrille mit einer so hervorragenden Sichtqualität entwickeln, dass sie als Augäpfel durchgehen könnte. Es muss außerdem hell genug sein, um Ihren Augen tatsächlich vorzutäuschen, dass sich in einer realistischen Umgebung ein tatsächlich schwebendes Microsoft Office-Fenster vor Ihnen befindet und dass tatsächlich eine Tastatur vorhanden ist, die vollständig virtuell ist und auf der Sie tippen können zu. Zum Vergleich: Die Art von Technologie, die erforderlich wäre, um dies zu erreichen, war nur in 4K-Bildschirmen in Gaming-Monitorqualität zu finden, die damals Tausende von Dollar kosteten. Tatsächlich wurde diese Technologie noch nicht erfolgreich auf PCs und Telefonbildschirmen eingesetzt. Aber nehmen wir an, Sie haben es trotzdem geschafft.

Wenn ja, dann bräuchten Sie eine Stromquelle, um all diese schwere, komplexe Hardware tatsächlich zu betreiben, ohne dass es unangenehm ist oder eine Gesundheitsgefährdung für den Benutzer darstellt (denken Sie daran, Sie erstellen ein Produkt, das die Leute auf ihren Gesichtern tragen, d. h. beides). Produkt und Akku dürfen nicht zu heiß werden, da sie sich wahrscheinlich auf dem Gerät selbst oder zumindest in dessen unmittelbarer Nähe befinden.

Und schließlich, wenn Ihnen das alles perfekt gelungen ist, müssen wir über den Chip sprechen, der all die Hunderten Milliarden mathematischen Berechnungen und Sensordaten pro Sekunde sehr energieeffizient verarbeiten muss. Sie haben diese Software wahrscheinlich auf einem Desktop-Rig mit einem ausgeklügelten Kühlmechanismus und einer Reihe mehrerer Funktionen entwickelt Multicore-Prozessoren im Inneren. Aber das alles muss man auf einem Gerät laufen lassen, das als Skibrille durchgehen sollte.

Wenn Sie das alles endlich tun – endlich einen Weg finden, all diese teure Hardware und Software in diese Brille zu integrieren –, dann müssen Sie jetzt einen Weg finden, sie so erschwinglich zu machen, dass sie tatsächlich von jemandem gekauft werden kann, der es NICHT istoperiert mit der finanziellen Unterstützung eines Billionen-Dollar-Unternehmens.

Nehmen wir an, eine Einzelperson oder ein Unternehmen würde dies schaffen. Würde das als revolutionär gelten?

Nun, du sagst es mir.

Es scheint, dass Apple es geschafft hat. Wir werden es erst nächstes Jahr (für einige 2025) genau erfahren, aber allen ersten Anzeichen zufolge haben sie es geschafft.

Sie haben ein Gerät gebaut, das ziemlich bequem auf Ihren Kopf passt. Und dieses Gerät nutzt ARM-Prozessoren, die leistungsfähiger sind als die meisten Prozessoren, die heute auf dem Markt für Personalcomputer erhältlich sind (diese Chips gab es 2019 noch nicht einmal). Zum Vergleich: Apples Vision Pro verwendet denselben Prozessor wie der leistungsstärkste 16-Zoll-Laptop, der derzeit auf dem Planeten erhältlich ist. Und es hat noch einen anderen proprietärer Chip, der R1, der die gesamte Echtzeitverarbeitung der Sensoren übernimmt. Welche Sensoren? Ja, erinnern Sie sich an die Sensoren, die vor ein paar Jahren wahrscheinlich nicht so gut verkleinert worden wären? Nun, Apple (und viele andere Unternehmen) haben gemeinsam Sensoren wie LiDAR, IR-Empfänger und andere Infrarotsensoren usw. weiterentwickelt, damit sie klein und leicht genug sind, um in kleine Geräte wie Telefone und Tablets eingebaut zu werden. Apple selbst liefert LiDAR bereits seit einiger Zeit auf iPads und iPhones aus.

Dieses MR-fähige Gerät von Apple verfügt außerdem über ein 4K-Micro-OLED-Display für jedes Auge mit einer Pixeldichte von 4000 ppi. Zum Vergleich: Das iPhone 14 hat 460 ppi und kann nur mit einer Dauerhelligkeit von ≤ 2000 Nits betrieben werden.

Berichten zufolge kann Apples Vision Pro bis zu 5000 Nits erreichender Helligkeit.

Oh, und erinnern Sie sich, als wir über Eingabegeräte sprachen? Nun, genau wie in unserem idealen Anwendungsfall hat sich Apple nicht für eine Handfernbedienung entschieden. Stattdessen sind die Eingabegeräte im wahrsten Sinne des Wortes Ihre Hände und Ihre Augen – der „Auswahlindikator“ verfolgt Ihre Augenbewegung Und Sie können Wisch- und Kneifgesten mit der Hand verwenden, um die Benutzeroberfläche zu steuern und darauf zu klicken. Das ist lächerlich. Speech-to-Text ist ebenfalls verfügbar, aber es gibt eine virtuelle Tastaturfunktion, obwohl ich bezweifle, dass es so viel Spaß machen würde, weil es kein taktiles Feedback gibt. Aber ersten Rezensenten zufolge sind die Handgesten und das Eye-Tracking der Konkurrenz um Lichtjahre voraus.

Wie wäre es mit einer Stromquelle? Nun, der Vision Pro kann direkt an eine Stromquelle angeschlossen werden. Aber für die Mobilität verfügt es auch über einen externen Akku, der zwei Stunden durchhält (zugegebenermaßen nicht viel, aber Sie sollten ihn im Moment sowieso nicht für längere Sitzungen verwenden), und diese Stromquelle kann in Ihre Tasche gesteckt werden und über einen magnetischen Puck mit Ihrem Vision Pro-Gerät verbunden.

Und in echter Apple-Manier funktioniert dieses Gerät hervorragend mit all Ihren anderen Ökosystemgeräten. Obwohl es sich beim Vision Pro also um einen eigenständigen Computer handelt, der Apps ausführen und eine Verbindung zum Internet herstellen kann, können Sie ihn dennoch an Ihren Mac anschließen, wenn sich der Kreis schließt, wenn Sie umfangreichere Software verwenden müssen. Angenommen, Sie möchten, dass ein riesiges 32-Zoll-4K-Display beim Bearbeiten eines Videos aus dem Nichts als externes Display für Ihren Mac auftaucht – ja, das Vision Pro würde das (theoretisch) auch tun und als externes Display dienen externes virtuelles Display für Ihren Mac.

Es verfügt auch über ein paar nette, teure Tricks, wie einen lebendigen Passthrough-Modus, der Ihren Wohnraum um Sie herum mit so vielen Details wiedergibt, dass Sie tatsächlich glauben könnten, die Brille sei transparente, durchsichtige Gläser (was aber nicht der Fall ist). Es verfügt außerdem über eine Funktion, die es den Leuten ermöglicht, Ihre Augen von außen zu sehen, was wiederum nur eine Illusion ist. Ein nach außen gerichtetes Display projiziert basierend auf Sensordaten eine realistische Darstellung Ihrer Augen.

Es ist also sicher nicht perfekt (die ersten Tester sagten, es liege etwas zu schwer auf dem Kopf), aber es ist definitiv ein Wunder.

Nun, die kurze Antwort lautet: Mit ihrem jährlichen Forschungs- und Entwicklungsbudget von 20 Milliarden US-Dollar (das, um den Kontext zu erhöhen, größer ist als die jährlichen Staatshaushalte von nicht weniger als 152 Ländern auf der Welt).

Auch wenn die kurze Antwort vielleicht nicht die beeindruckendste ist, reicht sie doch völlig aus. Aber sagen wir einfach, dass Apple einen Weg finden musste, industrietaugliche Technologie sowohl hinsichtlich der Kosten als auch der Größe zu verkleinern, bis sie klein (und „erschwinglich“) genug waren, um als Verbraucherprodukte an die bestehende Basis verkauft zu werden.

Ich gebe „bezahlbar“ in Anführungszeichen an, weil der Vision Pro satte 3.500 US-Dollar kostet , was teurer ist als gut 90 % der Konsumgüter, die Apple derzeit verkauft. Aber nun wissen Sie warum.

Was den Preis angeht, können wir vielleicht nie wirklich sagen, dass dieses Produkt den Großteil des Basismarktes des Unternehmens nicht verärgern wird, wir wissen jedoch, dass Apple nie den Ruf hatte, ein egalitäres Unternehmen zu sein.

Da sie jedoch Ende der 2010er Jahre damit begonnen haben, in Entwicklungsmärkte einzudringen, gehe ich davon aus, dass sie diesen Trend in einigen Jahren fortsetzen werden, indem sie eine „budgetfreundliche“ Version der Technologie herausbringen, die für den breiteren Markt besser anwendbar sein kann. Aber um fair zu sein, könnte dies wahrscheinlich immer noch ein paar tausend Dollar mehr sein, als der Durchschnittsbürger bereit wäre, für ein weiteres Hardwareprodukt zu zahlen.

Es gibt einige Dinge zu beachten, die uns durchschnittliche Techniknutzer begeistern könnten.

Erstens: Dies ist WWDC, wo einige der absolut besten und klügsten Entwickler unserer Generation sich derzeit ganz praktisch mit dem Produkt und seinen Anwendungsfällen vertraut machen. Diese Leute werden dann die nächsten Monate damit verbringen, Software zu entwickeln und zu perfektionieren, die, soweit wir wissen, die vertikalen Anwendungsfälle für diese Art von Technologie bereitstellen wird, die aufgrund ihres engen Fokus wahrscheinlich preislich deutlich nach unten gehen wird. Erwarten Sie grundsätzlich einen Visual Pro-„Nachbau“, der speziell für Arbeit und Unternehmen gedacht ist (Microsoft arbeitet auch an einem), oder einer speziell für Bildungszwecke, Spiele usw.

Und noch etwas, worüber man sich freuen kann? Nun, das ist das erste.

Der Vision Pro ist ein Produkt der ersten Generation. Es wurde noch nichts Vergleichbares hergestellt, daher ist dies die Basis Null.

Es scheint kontraproduktiv, das als etwas zu bezeichnen, worüber man sich freuen kann, aber betrachten Sie es so: Sicher, es ist teuer, aber dies ist die primitivste Version der führenden, branchenbestimmenden Mixed-Reality-Technologie.

Die Preise für die einzelnen Kosten für Entwicklung und Komponenten werden mit der Zeit nur sinken, und auch wenn dadurch die Flaggschiffmodelle von Unternehmen wie Apple vielleicht nie billiger werden, werden diese Geräte mittel- bis langfristig für andere Unternehmen auf jeden Fall erschwinglicher erschaffen. Eines Tages werden wir also mit einer anderen Perspektive zurückblicken, so wie wir es jetzt tun, wenn wir bedenken, dass das erste iPhone, das für 600 US-Dollar verkauft wurde, im Vergleich (Software und Hardware zusammen) mit einem billigen 2023 nicht mithalten kann Nachahmungs-Smartphone, das heute 80 US-Dollar kostet.

Glaube ich, dass die Vision Pros jemals so günstig sein werden, dass ein Student sie sich leisten kann, ohne die Bank zu sprengen? Nicht wirklich.

Aber wenn es und nachfolgende Iterationen seiner Produktlinie das Mixed-Reality-Erlebnis so sehr verbessern können, dass es ein realistischer, Pfund-für-Pfund-Ersatz für ein bescheidenes 4K-Display für 600–700 US-Dollar, eine Spielekonsole für 400 US-Dollar usw. wird Wenn man einen PC für 1.000 US-Dollar kauft, dann investiert man vielleicht eines Tages einfach in eine Schutzbrille und nicht in eine ganze Reihe von Konsumgütern, die so oder so immer teuer sein werden.

Ist das also der revolutionäre iPhone-Moment? Oder ist das nur ein teurer, wenn auch verfrühter Revolutionsversuch?

Wer weiß?

Eines ist sicher: Für den Durchschnittsbürger hat diese Technologie etwas äußerst Praktisches. Und das kann die Welt dramatisch verändern.

revolutionär Eine vollständige oder dramatische Veränderung mit sich bringen oder verursachen. Virtual Reality (VR): Augmented Reality (AR): Mixed Reality: Extended Reality: ARKit unpraktisch, aber fünf, viele sind mehrere, NICHT weitere 5000 Nits Augenbewegung, 3.500 $ andere Unternehmen