Es wird noch Jahre dauern, bis sich mit KI Geld verdienen lässt
Anzeige
Trotz eines stabilen Werbegeschäfts und positiver Quartalszahlen stürzte die Meta-Aktie nach Bekanntgabe der Ergebnisse um 15 Prozent ab. Auslöser warfare die Aussage von CEO Mark Zuckerberg, dass es noch Jahre dauern werde, bis das Unternehmen mit KI Gewinne erwirtschaften könne. Diese Einschätzung überrascht kaum, da die Entwicklung von KI immense Investitionen erfordert und bisher kein tragfähiges Geschäftsmodell existiert.
Dennoch hält Zuckerberg an seiner Imaginative and prescient fest, Meta zum führenden KI-Konzern zu machen. Der hauseigene Assistent Meta AI soll dabei eine Schlüsselrolle spielen und die Kommunikation zwischen Unternehmen und Kunden über die Meta-Plattformen ermöglichen. Zudem plant Meta die Einführung einer intelligenten Brille in Zusammenarbeit mit Ray Ban, die mit KI-Funktionen ausgestattet sein wird. Ob diese Initiativen ausreichen, um langfristig profitabel zu sein, bleibt abzuwarten.
OpenAI API bietet mehr Kontrolle und Sicherheit
OpenAI hat neue Funktionen für Firmenkunden eingeführt, um die Sicherheit, Compliance und Kontrolle bei der Nutzung ihrer Dienste zu erhöhen. Ein Projekt-Instrument ermöglicht es, Rollen und API-Schlüssel gezielt zuzuweisen sowie Nutzungslimits und Budgets festzulegen. Dadurch sollen unerwünscht hohe Rechnungen vermieden werden.
Zu den Sicherheitsfunktionen zählen eine Multi-Faktor-Authentifizierung und “Personal Hyperlink” für eine direkte Kommunikation zwischen Azure und OpenAI, die die Exposition gegenüber dem Web minimiert. Kostensenkungen sind durch Rabatte bei festgelegtem Durchsatz und eine neue Batch-API für asynchrone Arbeitslasten möglich.
Die Assistant API wurde ebenfalls erweitert, um OpenAIs Dienste besser in eigene Anwendungen einbinden zu können. Sie bietet verbesserte Kostenkontrolle durch Token-Limits, neue “Instrument Alternative”-Parameter und Unterstützung für fine-tuned GPT-3.5-Turbo-Modelle.
OpenAI will KI-Sicherheit mit Immediate-Hierarchie verbessern
Um die Anfälligkeit von Sprachmodellen für Prompt-Injection-Angriffe und Jailbreaks zu verringern, entwickelten OpenAI-Forscher eine neue Methode. Sie definiert explizit, wie sich Modelle verhalten sollen, wenn Anweisungen unterschiedlicher Priorität kollidieren.
Die Hierarchie umfasst drei Prioritätsstufen: System Messages von Entwicklern (höchste Priorität), Consumer Messages von Nutzern (mittlere Priorität) und Instrument Outputs von Drittanbieter-Instruments (niedrige Priorität). Anweisungen mit niedriger Priorität werden im Konfliktfall ignoriert.
Für das Coaching generierten die Forscher synthetische Daten. Einheitliche Anweisungen werden zerlegt und auf verschiedenen Hierarchieebenen angeordnet, widersprüchliche Anweisungen lernt das Modell zu ignorieren.
Die auf GPT-3.5 angewandte Methode steigert die Robustheit gegen Angriffe wie System Immediate Extraction um bis zu 63 Prozent und erhöht die Widerstandsfähigkeit gegen Jailbreaks um bis zu 30 Prozent – auch für während des Trainings nicht vorgekommene Angriffsarten.
Die Forscher sind zuversichtlich, mit weiteren Datensätzen auch ein übertriebenes Sicherheitsverhalten optimieren zu können. Zukünftig wollen sie den Ansatz verfeinern, um Sprachmodelle in sicherheitskritischen Anwendungen einzusetzen.
Pharmafirmen verbietet Mitarbeitern Nutzung von ChatGPT
Zwei Drittel der weltgrößten Pharmaunternehmen untersagen ihren Angestellten den Einsatz von ChatGPT. Dies ergab eine Umfrage von ZoomRx. Als Hauptgrund für die restriktive Haltung nennen die Firmen Sicherheitsrisiken im Zusammenhang mit vertraulichen Unternehmensdaten.
Trotz des offiziellen Verbots setzen viele Experten in der Branche ChatGPT regelmäßig ein, wobei 83 Prozent die Technologie als “überschätzt” einstufen.
Eine Ausnahme bildet der Impfstoffhersteller Moderna, der laut OpenAI ChatGPT in großem Umfang nutzt, unter anderem im Pilotprojekt “Dose ID”. Dabei werden umfangreiche Datensätze analysiert und visualisiert, um die ideale Impfstoffdosierung zu bestimmen.
Musk äußert sich optimistisch zu Verkaufsbeginn vom Optimus Bot
Bei einer Telefonkonferenz mit Investoren äußerte sich Tesla-CEO Elon Musk zuversichtlich über die Zukunft des humanoiden Roboters Optimus Bot. Bis Jahresende soll dieser in Tesla-Fabriken einsetzbar sein und dort nützliche Aufgaben übernehmen. Ein kommerzieller Verkauf an externe Firmen könnte laut Musk bereits 2025 erfolgen.
Musk betonte die immense Bedeutung des Roboters für Tesla und sieht in der Herstellung eines solchen Roboters enormes wirtschaftliches Potenzial. Um den Optimus Bot für den industriellen Einsatz vorzubereiten, soll er “empfindungsfähig” gemacht werden, damit er Aufgaben in der realen Welt auf Zuruf erledigen kann.
Andere Unternehmen wie Determine, Apptronik und UBTech haben Tesla im Robotik-Bereich bereits übertrumpft. Ihre humanoiden Roboter befinden sich bereits im Testbetrieb bei Automobilherstellern. Auch Boston Dynamics hat mit Atlas eine vielversprechende Roboterplattform vorgestellt. Vor diesem Hintergrund muss Musk nun liefern, um Investoren bei der Stange zu halten.
Das KI-Replace als Publication
Das KI-Replace gibt es jetzt auch als Publication. Gemeinsam mit den Kollegen von The Decoder bereiten wir alle Themen aus dem Podcast zum Nachlesen für Euch auf. Komplett mit allen Hyperlinks zu weiterführenden Themen. Ihr könnt Euch auf unserer Web site dafür anmelden. Alle Infos findet Ihr unter heise.de/publication.
Wie clever ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im “KI-Replace” von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.
(igr)