Kategorien
AI

Neue McKinsey Studie: das ökonomische Potenzial von generativer AI

McKinsey hat wieder einmal eine Studie veröffentlicht und wie immer muss man diese natürlich in den Kontext einer Unternehmensberatung einsortieren, die ständig auf der Suche nach neuen Betätigungsfeldern ist.

Aber McKinsey ist nun auch einmal kein ganz kleiner Laden und somit können die sich schon aufwändige Studien leisten, die oftmals einen wahren Kern haben. 

Nun also die Veröffentlichung der Studie zum ökonomischen Potenzial von generativer AI.

Die Key-Takeaways sind:

  1. Von den 63 Usecases, die McKinsey analysiert hat, geht ein Produktivitäts-Gewinn weltweit von ca. 2.6 – 4.4  Billionen Dollar erwartet. Das Bruttoprodukt der UK war im Vergleich in 2021 $3.1 billionen. Dies sei aber nur ein Anfang. Über welchen Zeitraum hier gesprochen wird, bleibt unklar. Die 63 Usecases finden sich unter o.A. Link wieder.
  2. 75% dieses Wertes entstehen in den Bereichen Customer Operations, Marketing & Sales, Software Engineering und Research&Development. 
  3. Alle Branchen sind betroffen, vor allem aber wohl Banking, Hightech (was auch immer das sein soll) Life science. Aber auch der Handel soll mit ca $400 – 660 Mrd. profitieren.
  4. Einer der größten Hebel liegt aber in der Veränderung der Jobs: 60-70% der Arbeitszeit, die Mitarbeitende auf wiederkehrende Tätigkeiten verschwenden, werden durch die Möglichkeit mit natürlicher Sprache (Natural Langauge) zu interagieren und diese auch auszugeben, eingespart! Das ist eine Menge. Dies betrifft insbesondere higher paid jobs, sog. Knowledge Worker.
  5. Bis 2045 würde die Hälfte der jetzigen Tätigkeiten automatisiert. Ca. 10 Jahre früher als bei bisherigen Schätzungen.
  6. Wir stehen mit der Veränderung am Anfang – Unternehmen und Politik haben noch Zeit zu reagieren (klar, sie sollen ja auch McKinsey beauftragen 😉 ) 

Gleichzeitig werden in der Studie natürlich auch die Herausforderungen genannt, die jede generative AI mit sich bringt – diese werden allerdings nur stichpunktartig erwähnt:

  1. Fairness und Gleichheit
  2. Intellectual Property Fragen 
  3. Privacy Herausforderungen
  4. Sicherheit gerade auch gg.Manipulation
  5. Nachvollziehbarkeit der Antworten
  6. Zuverlässigkeit der Antworten
  7. Soziale und ökologische Auswirkungen
Kategorien
AI

Quality of data significant for AI results

A new study was conducted regarding the results of different language models. The main outcome is: size doesn’t always matter.

Large lang models (LLM) are trained on up to 530 billion parameters which results in significant cost effetcs. The study shows, that models with much smaller parameters like chinchilla (70 billion parameters) outperform ther colleagues, especially when raising training tokens.

This is the 5 Shot performance of differrent models

The conclusion we can draw from this are:

  1. it is indeed possible to use only publicliy avalable data to train a perfectly working language model. AI is going to stay, regardless the licensing-wars we will see with OpenAi etc.
  2. It is possible for companies to add their own „language“ to existing models at a doable pricetag
  3. You should not stick to one model, buzt be flexible and interchangable with the results by testing, testing, testing.

(Dall-E prompt for header picture: "Create a picture where the language model "Goliath" is being beaten by the language model "Chinchilla", make that a fantasy picture and Goliath being a big, fat bear, as where Chinchilla is a very strong mouse.")

Kategorien
AI

AI als Infrastrukturfrage

Nico hat vor ein paar Tagen drüben bei LinkedIn die steile These aufgemacht, dass AI nicht als Abkürzung für Artificial Intelligence, sondern für Augmented Intelligence stehen sollte. Und damit hat er aus meiner Sicht komplett recht und einen wichtigen Punkt: Künstliche Intelligenz sollte „nicht in einem bedrohlichen Kontext gesehen werden“, sondern eher als „Erweiterung unserer geistigen Möglichkeiten“. Das geht dann in die gleiche Richtung wie vor 30 Jahren: Wenn es Wikiepdia gibt, warum sollte man noch irgendwas auswendig lernen – man muss nur wissen wo es steht.

Victor hat dann das Thema Infrastrukur in die Diskussion eingebracht, die ich sehr spannend finde. Es sind ja im Moment die Modelle wie OpenAI und Bard, die mit ihrer Leistungsfähigkeit für Aufmerksamkeit sorgen – aber die Implementierung in den Business Kontext (wenn er das meinte) sehe ich noch nicht. Ja, Microsoft bringt natürlich mit Azure eine 0365 nahe Entwicklerplattform mit sich – und Copilot integriert OpenAI in verschiedene Officetools. Aber ist das dann schon das gelobte Land? Viele Unternehmen werden sich fragen:
1. Was passiert mit dem ganzen Silowissen in den Datenbanken, FAT Applikationen. Wie kommt es da raus und wird für meine Mitarbeitenden und Kunden nutzbar gemacht?

2. Wie sieht das Interface aus? Ist es wirklich der Chat, der als virtueller Assistent „neben“ mir steht?

3. Wie messe ich die Performance der AI im Unternehmen?

4. Wie stelle ich den Wahrheitsgehalt fest und mache ihn transparent?

5. Gibt es genau EIN LLM das zu mir passt?

6. Und wie integriere ich die Business-Prozesse mit der AI?

Denke, da ist noch Platz für viel Infrastruktur um Augmented Intelligence für Unternehmen wirklich sinnvoll nutzbar zu machen.