“The truth is that you’ve been in the mud for the last year, working hard to find all those benefits that were promised by AI,” said Hung LeHong, distinguished VP analyst and Gartner Fellow, during the keynote session. “It hasn’t been easy.”Hätte uns doch nur rechtzeitig jemand gewarnt!1!!
Das ist der Kontext, in dem Jeff Bezos in der Washington Post erklärt, wieso die Zeitung dieses Jahr nicht zur Wahl eines der beiden Präsidentenkandidaten aufrufen will.
Kontext: Der Wapo sind seit der "kein Endorsement"-Ansage 200.000 Abonnements gekündigt worden.
Aus deutscher Sicht ist die ganze Affäre eher merkwürdig anzuschauen. Bei uns gibt es ja auch keine Endorsements vor Wahlen. Wenn eine Zeitung einen Kandidaten oder eine Partei empfehlen würde, wäre die sofort aus dem Rennen, weil man ab da annehmen muss, dass sie die Fakten selektiv berichtet. Insofern halte ich das für die richtige Entscheidung, auch bei der LA Times. Die hätten nie damit anfangen dürfen.
Nächster Schritt: Die Rhetorik runterdrehen. Je hysterischer du vor Trump warnst, desto mehr signalisierst du den "alles niederbrennen"-Leuten, dass sie dich ärgern können, wenn sie Trump wählen.
If you like music even a bit, you might boggle at the idea that people would be happy with a stream of anonymous machine-generated slop. But to the music streaming business, caring which song you're hearing makes you a weird outlier. The vast majority of streaming listeners want a radio playing background noise. You ask and they literally say, "I don't care."
So in August, Kunlun Tech released Melodio, which generates and streams AI slop music and lyrics, and Mureka, which uses AI to help you plagiarize music into slop!
Melodio and Mureka exist to market Kunlun's exciting new SkyMusic diffusion model. Not paying songwriters or musicians is just a side benefit.
Previously, previously, previously, previously, previously, previously, previously, previously.
But Whisper has a major flaw: It is prone to making up chunks of text or even entire sentences, according to interviews with more than a dozen software engineers, developers and academic researchers. Those experts said some of the invented text — known in the industry as hallucinations — can include racial commentary, violent rhetoric and even imagined medical treatments.Whisper, wir erinnern uns, wurde von OpenAI gehackt, damit sie Youtube-Videos transkribieren konnten, weil sie keine Trainingsdaten mehr hatten für ihr "KI"-Training. Das ist natürlich super hilfreich, wenn die Trainingsdaten schon voller Halluzinationen sind!
“Nobody wants a misdiagnosis,” said Nelson, a professor at the Institute for Advanced Study in Princeton, New Jersey. “There should be a higher bar.”Ach. Ach was.
Whisper also is used to create closed captioning for the Deaf and hard of hearing — a population at particular risk for faulty transcriptions.Keine Sorge. Die hören den Unterschied nicht. *wieher*
Naja komm, Fefe, wie schlimm kann das schon sein. Hallziniert das Teil halt ein bisschen. Nun... hier ist ein Beispiel aus der Praxis:
In an example they uncovered, a speaker said, “He, the boy, was going to, I’m not sure exactly, take the umbrella.”Und das in einem Land mit der Todesstrafe. Mhhjam!But the transcription software added: “He took a big piece of a cross, a teeny, small piece ... I’m sure he didn’t have a terror knife so he killed a number of people.”