Explore every episode of Knowledge Science - Alles über KI, ML und NLP
Dive into the complete episode list for Knowledge Science - Alles über KI, ML und NLP. Each episode is cataloged with detailed descriptions, making it easy to find and explore specific topics. Keep track of all episodes from your favorite podcast and never miss a moment of insightful content.
In der heutigen Episode wollen wir noch im Themengebiet Information Extraction Ihnen das Relation Extraction vorstellen, bei dem die Verbindungen zwischen Entitäten aus unstrukturierten Texten herausgearbeitet werden soll und somit Wissen extrahiert werden kann.
Zwar hatten wir schon einmal eine Sendung zu Data Augmentation aber in der heutigen Sendung wollen wir speziell das Data Augmentation für Named Entity Extraction beleuchten.
In der heutigen Sendung diskutieren wir über die Qualitätssicherung der Informationen in Knowledge Graphen. Wie kann gewährleistet werden, dass Informationen konsistent, richtig und aktuell bleiben.
in der heutigen Sendung knüpfen wir nahtlos an das Thema Qualitätssicherung in Knowledge Graphen an. Wir wollen diesmal nicht über die Maßnahmen zur Qualitätssicherung bei Erstellung sondern über Maßnahmen zur Erweiterung der Qualität bestehender KG sprechen.
In der heutigen Sendung möchten wir über die praktische Umsetzung von KI Projekten sprechen. Insbesondere über gängige Programmiersprachen, Bibliotheken und Frameworks.
Anknüpfend an die Sendung von letzter Woche, werden wir Frameworks und Tools gerade mit der Betrachtung auf Visuelle Tools sowie auf einzelne Frameworks für Deep Learning vertiefen und auf Vorteile und Nachteile eingehen.
Diese Woche sprechen, wir über Auto-ML Verfahren, mit denen wir die Aufgaben des maschinellen Lernens noch weiter automatisch lösen wollen. Wir beleuchten, was deren Einsatzzweck ist, welche Bibliotheken es gibt und ob die Data-Scientisten jetzt nun überflüssig werden.
In dieser Sendung sprechen wir über das Open Neural Network Exchange Format, dass die Austauschbarkeit von Modellen wesentlich erleichtern soll. Wir gehen auf die Komponenten ein, diskutieren Gründe warum man es anwenden sollte und sprechen auch über Risiken.
In der 51. Sendung wollen wir einen Einstieg in eine neue Mini-Serie zum Thema Text-Summarization geben, um dann in nachfolgenden Sendungen auf die einzelnen Verfahren im Detail einzugehen.
In der 52. Sendung setzen wir unsere Miniserie zum Thema Text Summarization fort und gehen auf den Algorithmus Textrank ein, dass ein einfaches Verfahren für eine Extractive Zusammenfassung ist und sich stark an den von Google entwickelten Pagerank-Algorithmus bedient.
In der heutigen Sendung grenzen wir in unserer kleinen Miniserie Textzusammenfassungen Unsupervised zu Supervised Lernverfahren im Bereich der Textzusammenfassung ab und gehen dann auf die Anforderungen und Schwierigkeiten von existierenden Datensätzen ein.
In der heutigen Sendung wollen wir auf Grund von aktuellen Ereignissen von unserer Sprachserie Textsummarization kurz abweichen und Ihnen etwas über das neu vorgestellte Modell OPT-175B von Meta AI erzählen. Insbesondere wie die Veröffentlichung von solchen Modellen die Demokratisierung von Large Language Models vorantreibt und so auch die Forschung in diesem Bereich davon profitiert.
In der Woche vom 3.5. bis zum 6.5. hat das Ansbacher KI Transfer und Forschungszentrum AN[ki]T der HS-Ansbach seine Pforten nach zwölf Monaten Vorbereitungszeit endlich geöffnet. Aus diesem Grund haben wir ein Interview mit der Geschäftsführerin Yvonne Wetsch geführt um einige Impressionen hier im Podcast einzufangen.
In der heutigen Sendung kehren wir zu unserer kleinen Miniserie Text Summarization zurück und gehen heute auf abstraktive Zusammenfassungen insbesondere auf das Model PEGASUS ein. Wir diskutieren den Aufbau, die Beweggründe, die Vorgehensweise und mögliche Schwächen.
In der heutigen Sendung, werden wir unser Thema Text Zusammenfassung weiterführen, Wir sprechen über die Schwächen und Probleme von automatischen Textzusammenfassungen. Gehen auf mögliche Lösungswege ein und diskutieren diese.
In der heutigen Sendung sprechen wir über Low Resource Learning zur Unterstützung einer nachhaltigen KI. Wir freuen uns hier Rodrigo Raab im Interview zu haben, der seine Masterarbeit zum Thema "Untersuchung von Low Ressource Learning im Kontext von Natural Language Processing zur Unterstützung einer nachhaltigen KI" geschrieben hat.
Wir sprechen in der heutigen Sendung über die von Google entwickelte Architektur Lambda, die in den letzten Woche vor allem wegen der Frage ob diese KI ein Bewusstsein entwickelt hat, in den Medien war.
Wir sprechen in der heutigen Sendung über einen Blogbeitrag, der die These aufstellt, dass akademische Forschung im KI Umfeld eine totale Verschwendung ist. Wir wollen in einem lockeren Gespräch dieser These nachgehen.
Nach krankheitsbedingter Pause starten wir vor der Sommerpause mit einer weiteren Sendung. Heute sprechen wir über die Architektur REALM eine Architektur für das Open Question Answering. Hören Sie rein.
Wir sprechen heute über die Entwicklung der Künstlichen Intelligenz in den letzten Jahrzehnten sowie über die sogenannten KI Winter und gehen auf die Gründe deren Entstehungen ein.
Steht uns wieder ein KI-Winter bevor?
Dies ist unsere letzte Sendung vor der Sommerpause. Wir melden uns Anfang September mit weiteren Folgen zurück. Wir wünschen Ihnen eine schöne Sommerzeit und vielen Dank fürs Zuhören.
Nach längerer Sommerpause melden wir uns wieder zurück!
In der heutigen Sendung sprechen wir über KI als Assistent für das Erstellen von Texten. Wir gehen auf ein neues Model namens "PEER" ein und erläutern die Vorgehensweise sowie dessen Vor- und Nachteile.
In der heutigen Sendung sprechen wir über das ASR Modell Whisper, dass uns das Leben durch Spracherkennung erleichtern soll. Wir gehen auf die Grundüberlegungen des Papers ein und beschreiben den Ansatz von Weak Supervision und dessen Vorteile in diesem Kontext. Hören Sie rein.
Nachdem wir letzte Woche über die automatische Spracherkennung gesprochen haben, möchten wir in dieser Sendung gerne über den Prozess der Sprecheridentifikation (Diarization) sprechen. Wir gehen darauf ein, wofür es verwendet werden kann. Welche Schritte notwendig sind und wie dies mit maschinellen Lernen bzw. Deep Learning gelöst werden kann. Hören Sie rein.
In dieser Woche wollen wir wieder mit einer kleinen Miniserie zum Thema Prompting starten. Prompting ist ein faszinierendes Paradigma, große Modelle an die eigenen Anforderungen anzupassen, ohne die Modelle explizit trainieren zu müssen. Hören Sie rein.
In der heutigen Sendung werden wir über die neusten Entwicklungen von Sprachmodellen sprechen. Insbesondere über das Aufsehen über ChatGPT und Reinforcement Learning from Human Feedback.
In der heutigen Episode sprechen wir über "Sustainable AI". Dabei gehen wir der Frage nach, wie nachhaltig kann AI sein und kann KI die Nachhaltigkeit unterstützen. Hören Sie rein.
Im Gegensatz zur Sendung der letzten Woche, sprechen wir heute über Sustainability of AI. Wir gehen auf die Abgrenzung ein und zeigen Beispiele und Verfahren auf, wie es zu einer nachhaltigen KI kommen kann. Bleiben Sie dran.
In dieser Woche wollen wir darüber diskutieren, ob Large Language Modelle die Fähigkeit zum Argumentieren haben und ob diese Fähigkeit zur Verbesserung der Leistung solcher Netze genutzt werden kann.
In dieser Woche wollen wir darüber sprechen, wie durch die Zusammenführung von Bild und Textdaten in einem Prompt Sprachmodelle in ihrer Leistung gesteigert werden können. Im Detail gehen wir auf das Paper von Zhang et. al. Multimodal Chain-of-Thought Reasoning in Language Models ein.
In dieser Episode reden wir über das Release des neuen Models GPT-4 von openAI. Sind wir an einem Scheidepunkt mit diesem Model angekommen? Diese Frage klären wir in der heutigen Sendung.
In dieser Episode reden wir über die Demokratisierung von großen Sprachmodellen. Insbesondere die Technologien, wie Modelle kompakt trainiert werden können.
In dieser Episode reden wir darüber, ob autonome generative Agenten der Weg zur generellen KI sind und ob wir gerade den nächsten Hype im Bereich der Sprachmodelle erleben. Wir beleuchten die Projekte Auto-GPT und BabyAGI, die momentan bei GitHub einen starken Fokus auf sich ziehen.
In dieser Episode reden wir über das Paper „Generative Agents: Interactive Simulacra of Human Behavior“ von Park et. al. Wir zeigen auf, wie die Autoren 25 generative Agenten mit der Hilfe von Sprachmodellen erschaffen haben. Diese Agenten agieren in einer virtuellen Spielwelt untereinander. Ferner diskutieren wir, wofür solche Simulationen verwendet werden können.
Link zum Paper: Park et. al.: Generative Agents: Interactive Simulacra of Human Behavior https://arxiv.org/abs/2304.03442
In der heutigen Sendung sprechen wir mit Andreas Köpf einer der vier Initiatoren des Open-Source-Projekt OpenAssistent. Das Projekt hat zum Ziel, einen chatbasierten Assistenten zu entwickeln, der die Aufgaben, die er löst, auch versteht. Dabei kann er mit anderen Systemen interagieren und dynamisch Informationen einholen.
Andreas gibt uns einen Einblick hinter die Kulissen der Open-Source Entwicklung und die Herausforderungen, Chancen und Visionen eins solch großen Projektes.
Wenn Sie wissen wollen, wie der gesamte Lebenszyklus es Erstellens von Modellen, wie hatGPT aussieht, blicken Sie mit uns hinter die Kulissen und hören Sie rein.
Link zum Projekt: https://github.com/LAION-AI/Open-Assistant Link zum Paper des Datensatzes: https://arxiv.org/abs/2304.07327
In der heutigen Sendung sprechen wir mit Dr. Tristan Behrens, er ist Experte für künstliche Intelligenz und ein Pionier bei der Verwendung von generativen Sprach- und Diffusormodellen für die Erstellung von Musik. Als Artist in Residence des KI-Salons Heilbronn kreiert er Exponate, die das Zusammenspiel zwischen KI und Musik aufzeigen.
Er gibt uns Einblicke, wie KI verwendet werden kann, um Musik zu generieren.
Link zum Youtube-Kanal von Dr. Behrens: https://www.youtube.com/channel/UCcMEBxcDM034JyJ8J3cggRg/videos
In der heutigen Sendung sprechen wir über das Alignment von großer Sprachmodelle. Das Alignment bestimmt, wie gut Sprachmodelle menschliche Absichten interpretieren und darauf adäquat reagieren. Hören Sie rein!
In der heutigen Sendung greifen wir das Thema Alignment von Sprachmodelle noch einmal auf. Wir sprechen über den Ansatz "Dromedary - Principle Driven Self Alignment of LLMs" als Beispiel einmal durch. Hören Sie rein.
Link zum Paper:
Sun et. al.: Principle-Driven Self-Alignment of Language Models from Scratch with Minimal Human Supervision - https://arxiv.org/abs/2305.03047
In der heutigen Sendung steigen wir in die Welt der multimodalen Modelle ein, die es ermöglichen, nicht nur Textinformationen, sondern auch Bildinformationen von Sprachmodellen verarbeiten zu lassen.
Link zum Paper:
Zhu et. al.: MiniGPT-4: Enhancing Vision-Language Understanding with Advanced Large Language Models - https://arxiv.org/abs/2304.10592
-- Sponsor der Sendung -- https://www.aime.info/de/ Diese Sendung wird unterstützt von der AIME GmbH. Die Firma AIME sitzt in Berlin und sieht ihre Kernkompetenz innerhalb der Fertigung und des Betriebs hoch spezialisierter Server und Workstations zur Entwicklung Künstlicher Intelligenz.
Mit Technologie, Innovationsgeist und Know-how entlang der gesamten KI-Wertschöpfungskette ermöglicht AIME ihren Kunden eine zuverlässige und zukunftssichere Produktion von Maschine-Learning- sowie Deep-Learning-Modellen. Mit der GPU-Cloud vermietet AIME günstig Multi-GPU-HPC-Server für Deep-Learning- und Big-Data-Projekte.
Neben der Konstruktion von an Kundenwünschen angepassten individuellen Hochleistungs-Computern mit optimal aufeinander abgestimmten high-end Server-Komponenten wird im AIME-Lab außerdem an Ideen für Anwendungen im Bereich der Künstlichen Intelligenz geforscht.
Die AIME GmbH möchte helfen, die KI-Entwicklung in Europa zu beschleunigen. Mit ihrem Angebot einer kostengünstigen GPU-Cloud sieht AIME sich als Nährboden und Motor einer StartUp-nahen, innovativen Entwicklung der KI-Landschaft innerhalb Europas. AIME ist ein deutsches Unternehmen und möchte den europäischen Standort stärken.
In der heutigen Sendung steigen wir noch einmal in die Welt der multimodalen Modelle ein. Diesmal sprechen wir über das Bindeglied zwischen dem uni-modalen Bildverarbeitungsmodell und dem uni-modalen Sprachverarbeitungsmodell, den Q-Former. Q-Former sind eine effiziente Methode, das Training von multimodalen Modellen durchzuführen. Wir diskutieren die Architektur, Vorteile, Nachteile und Wirkweisen.
In der heutigen Sendung sprechen wir über die Risiken, die durch eine generelle KI für die Menschheit entstehen kann. Welche Maßnahmen sind zu ergreifen? Wo stehen wir gerade? Würde ein Moratorium, mit dem Ziel alle KI-Entwicklungen zu stoppen, helfen? Diese Fragen betrachten wir in der heutigen Sendung.
In dieser Episode tauchen wir in die Welt der Vektor-Datenbanken mit Philip Vollet, Head of Developer Growth by Weaviate, ein. Wir sprechen darüber, was Vector-Datenbanken sind, welche innovativen Projekte mit Weaviate realisiert werden und wie KI zu einem gesellschaftlichen Wandel führt. Außerdem sprechen wir über den Aufbau von Teams und wie wichtig diese in dem momentanen Wandel sind. Unbedingt reinhören!
In dieser Episode sprechen wir über die Einschränkungen von Large Language Modellen, insbesondere die Kontextlänge der verschiedenen Architekturen. Welche Möglichkeiten gibt es die Eingabelänge und Verarbeitungslänge von LLMs zu vergrößern und warum sollte man dies wollen? Hören Sie rein.
In dieser Episode geben wir einen kurzen Überblick über ausgewählte spannende wissenschaftliche Veröffentlichung der KW27. Vor allem sind es folgende vier Papers, die wir für diese Sendung ausgewählt haben:
- Ding et. al.: LONGNET: Scaling Transformers to 1,000,000,000 Tokens https://arxiv.org/pdf/2307.02486.pdf - Chang et. al.: A Survey on Evaluation of Large LanguageModels (https://arxiv.org/pdf/2307.03109.pdf) - Ghosal et. al.: FLACUNA: Unleashing the Problem Solving Power of VICUNA using FLAN Fine-Tuning (https://arxiv.org/pdf/2307.02053v1.pdf) - Chia et. al.: INSTRUCTEVAL: Towards Holistic Evaluation of Instruction-Tuned Large Language Models (https://arxiv.org/pdf/2306.04757.pdf)
In dieser Episode sprechen wir mit Toine Diepstraten und Henri Hagenow über das Hosting von GPUs, sowie das Zusammenstellen von High Performance Computern für das Deep Learning. Die AIME GmbH (https://www.aime.info/) hat sich auf den Bau und das Bereitstellen solcher HPC Cluster spezialisiert, entwickeln aber auch Cloud Software zum Trainieren und Betreiben von KI Modellen, wie das AIME Machine Learning Framework Container Management. In Zukunft soll noch eine standardisierte API zum Betrieb von Large Language Models ergänzt werden.
Aktuell haben sie auch einen Beitrag im iX Special "Künstliche Intelligence" (https://www.heise.de/news/iX-Special-Kuenstliche-Intelligenz-ist-da-9188840.html)
In der neuesten Episode unseres Podcasts bringen wir eine kleine, aber aufregende Änderung in unser bisheriges Konzept: Zum ersten Mal präsentieren wir eine LIVE-Podcast Sendung!
Im Zuge des Nürnberg Digital Festivals haben wir uns dem wichtigen Thema "Lebenslanges Lernen" gewidmet und dieses im entspannten Rahmen des Afterworks beleuchtet. Dabei hat uns Johanna, eine Schülerin mit einzigartigen Einblicken, begleitet. Sie hat uns ihre Erfahrungen mit lebenslangem Lernen, sowohl mit als auch ohne Künstlicher Intelligenz, nähergebracht.
Auch wenn es sich um ein neues Format handelt, ist es genauso unterhaltsam wie unsere regulären Episoden. Schalten Sie ein und erleben Sie eine erfrischende Variante unseres Podcasts!
In der heutigen Sendung sprechen wir über das Release von LLama 2 von Meta Research. Wir sprechen das zugrundeliegende Paper durch und diskutieren Funktionsweisen, Möglichkeiten und Unterschiede. Hören Sie rein.
In der heutigen Episode entführen wir Sie in die faszinierende Welt der Sprachmodellevaluierung. Tauchen Sie mit uns in die Tiefen der Herausforderungen ein und erhalten Sie einen umfassenden Überblick über diverse Frameworks. Für alle Technologie- und KI-Enthusiasten ein absolutes Highlight. Schalten Sie ein und bleiben Sie neugierig!
In der heutigen Folge unseres Podcasts gehen wir tiefer auf die Evaluierung von LLMs ein. Wir werden Ihnen das Evaluierungsframework HELM vorstellen, das für Holistic Evaluation of Language Models steht. Es handelt sich um einen holistischen Blick in die Bewertung und Analyse von Sprachtechnologien, der sowohl für Fachleute als auch für interessierte Laien von Interesse sein könnte. Bleiben Sie dran.
Unser Podcast befasst sich diese Woche mit der Frage, wie Künstliche Intelligenz feministischer gestaltet werden kann. Dabei diskutieren wir mit der Feminismus- und KI-Expertin Eva Gengler darüber, wie man KI nutzen kann, um mehr Gerechtigkeit und Gleichstellung in der Gesellschaft zu erreichen. Wir sprechen über Herausforderungen und Chancen eines feministischen Blicks auf KI.
Eva Gengler (Director @FemAI): https://www.linkedin.com/in/eva-gengler-970144166/
Wir machen eine Sommerpause. Anfang September sind wir wieder für Euch da.
In dieser Sendung beleuchten wir das Thema Evaluierung erneut, mit Fokus auf wirtschaftliche Aspekte. Lernen Sie interessante Kennzahlen und Metriken für LLM-Entwickler kennen und erfahren Sie, wie mit diesen Ihre Kosten beeinflusst werden können. Tauchen Sie mit uns in die Welt der Sprachmodelle, Evaluierungsprozesse, Kostenstrukturen und GPU-Speicheranforderungen ein.
Vielen Dank auch an unseren Sponsor XL2:
XL2 ist ein Joint Venture zwischen dem Premium-Automobilhersteller Audi und dem globalen IT-Beratungsunternehmen Capgemini. Das Unternehmen wurde im Jahr 2020 gegründet und treibt die digitale Transformation für Audi, die Volkswagen-Gruppe und Automotive Leaders voran. XL2 konzipiert und implementiert maßgeschneiderte Lösungen für Logistik- und Produktionsprozesse mit den neuesten Technologien aus den Bereichen SAP, Cloud und Analytics.
Können Sie sich vorstellen, die Kontrolle über den Output von Sprachmodellen zu haben? Versprechen Sie uns Ihre Aufmerksamkeit für eine halbe Stunden und wir verspreche Ihnen, Sie in die faszinierende Welt der Outputkontrolle von Sprachmodellen zu führen. Wir stecken in einer komplexen Debatte, die weit über das hinausgeht, was wir lesen und hören. Das Gespräch dreht sich um die Automatisierung menschlicher kognitiver Leistung und die Herausforderungen, die sich daraus ergeben. Es geht um die Formulierung von Prompts und die Frage, ob es eine Garantie dafür gibt, dass sich Sprachmodelle daran halten.
In dieser Episode werden wir Ihnen zeigen, wie Sie generierte Elemente in den eigentlichen Prompt einbauen und einen komplexen, mehrschichtigen Aufruf durchführen können. Und wir tun das nicht allein. Mit uns auf dieser Reise sind Frameworks von OpenAI und Microsoft, die uns helfen, den Output zu kontrollieren. Wir diskutieren auch die Bedeutung von Echtzeituntersuchungen und wie wir diese in unsere Arbeit integrieren können.
Schließlich beschäftigen wir uns mit wissenschaftlichen Ansätzen zur Outputkontrolle. Wir werden auch darüber sprechen, welche anderen Ansätze in der Wissenschaft existieren und wie sie genutzt werden können. Und das ist noch nicht alles. Wir werden auch überlegen, wie wir mächtige Frameworks nutzen können, um Fehlersuchen zu unterstützen. Begleiten Sie uns auf dieser spannenden Reise in die Welt der Sprachmodelle!
Der Podcast ist gesponsert von XL2: XL2 ist ein Joint Venture zwischen dem Premium-Automobilhersteller Audi und dem globalen IT-Beratungsunternehmen Capgemini. Das Unternehmen wurde im Jahr 2020 gegründet und treibt die digitale Transformation für Audi, die Volkswagen-Gruppe und Automotive Leaders voran. XL2 konzipiert und implementiert maßgeschneiderte Lösungen für Logistik- und Produktionsprozesse mit den neuesten Technologien aus den Bereichen SAP, Cloud und Analytics.
Eigentlich, was wäre, wenn wir die Grenzen von traditioneller Programmierung und KI-Sprachmodellen durchbrechen könnten? Stellen Sie sich vor, wir könnten kognitive Leistungen und Prozessautomatisierung auf ein ganz neues Niveau heben. In dieser Folge haben wir uns eingehend mit dem aufstrebenden Feld des Language Model Programming (LMP) beschäftigt und darüber diskutiert, wie die Integration dieser mächtigen Technologie in bestehende Prozesse und Systeme unsere Arbeitsweise revolutionieren kann.
Wir haben uns auf den Weg gemacht, zu erforschen, wie wir programmbezogene Fragmente in ein nativ geschriebenes Programm einbinden können. Dies ermöglicht es uns, Texte mit eingebetteten Funktionsaufrufen zu erstellen. Zudem haben wir die Vorzüge der LMQL Sprache hervorgehoben, die der SQL-Analogie ähnelt.
Hören Sie rein.
Der Podcast ist gesponsert von XL2: XL2 ist ein Joint Venture zwischen dem Premium-Automobilhersteller Audi und dem globalen IT-Beratungsunternehmen Capgemini. Das Unternehmen wurde im Jahr 2020 gegründet und treibt die digitale Transformation für Audi, die Volkswagen-Gruppe und Automotive Leaders voran. XL2 konzipiert und implementiert maßgeschneiderte Lösungen für Logistik- und Produktionsprozesse mit den neuesten Technologien aus den Bereichen SAP, Cloud und Analytics.
Versprechen wir uns nicht alle, dass unsere Sprachmodelle einen Tatsachencheck durchführen könnten? Wäre es nicht ideal, wenn sie Wissen verifizieren könnten? In unserer heutigen Ausgabe nehmen wir uns Zeit, um genau diese Fragen zu beantworten. In einem tiefgreifenden Gespräch über DoLa Decoding, untersuchen wir verschiedene Techniken zur Verifizierung von Faktenwissen und wie Sprachmodelle damit arbeiten können. Unser Fokus liegt auf dem Paper "DoLa: Decoding by Contrasting Layers Improves Factuality in Large Language Models Chuang et. al. 2023"
Verwendete Papers: Chuang, Y. S., Xie, Y., Luo, H., Kim, Y., Glass, J., & He, P. (2023). DoLa: Decoding by Contrasting Layers Improves Factuality in Large Language Models. arXiv preprint arXiv:2309.03883.
Li, X. L., Holtzman, A., Fried, D., Liang, P., Eisner, J., Hashimoto, T., ... & Lewis, M. (2022). Contrastive decoding: Open-ended text generation as optimization. arXiv preprint arXiv:2210.15097.
Hören Sie rein.
Der Podcast ist gesponsert von XL2: XL2 ist ein Joint Venture zwischen dem Premium-Automobilhersteller Audi und dem globalen IT-Beratungsunternehmen Capgemini. Das Unternehmen wurde im Jahr 2020 gegründet und treibt die digitale Transformation für Audi, die Volkswagen-Gruppe und Automotive Leaders voran. XL2 konzipiert und implementiert maßgeschneiderte Lösungen für Logistik- und Produktionsprozesse mit den neuesten Technologien aus den Bereichen SAP, Cloud und Analytics.
In dieser Sendung schauen wir uns mit DSPy ein weiteres Beispiel für eine Language Model Programming Umsetzung an. Diese Umsetzung ist stark an die Struktur von Pytorch angelehnt.
Das Original Paper ist zu finden unter:
DSPy: https://github.com/stanfordnlp/dspy
Bleiben Sie dran.
Vielen Dank auch an unseren Sponsor XL2:
XL2 ist ein Joint Venture von Audi und Capgemini, dass die digitale Transformation in der Automobilindustrie vorantreibt. Das Unternehmen erarbeitet innovative End-to-End-Prozesse und implementiert maßgeschneiderte IT-Lösungen für seine Kunden.
In dieser Sendung sprechen wir mit den Entwicklern von LMQL Marc Fischer und Luca Beurer-Kellner von der ETH Zürich als Ergänzung zu unserer Episode 96 und bekommen so einen tieferen Einblick, in das Framework LMQL.
Bleiben Sie dran.
Vielen Dank auch an unseren Sponsor XL2:
XL2 ist ein Joint Venture von Audi und Capgemini, dass die digitale Transformation in der Automobilindustrie vorantreibt. Das Unternehmen erarbeitet innovative End-to-End-Prozesse und implementiert maßgeschneiderte IT-Lösungen für seine Kunden.
Wir haben es geschafft: 100 Episoden. Im Zuge dieser Zahl, wollen wir in dieser Sendung, die letzten 100 Sendungen im Rückblick betrachten und dann aber auch in die Zukunft blicken. Vor allem auch wie sich Sprachmodelle in den nächsten Monaten weiter entwickeln können.
Bleiben Sie dran.
Vielen Dank auch an unseren Sponsor XL2:
XL2 ist ein Joint Venture von Audi und Capgemini, dass die digitale Transformation in der Automobilindustrie vorantreibt. Das Unternehmen erarbeitet innovative End-to-End-Prozesse und implementiert maßgeschneiderte IT-Lösungen für seine Kunden.
In der heutigen Sendung sprechen wir über die Neuerungen von OpenAI und wie die neuen Modelle die AI Landschaft verändern werden. Bleiben Sie dran.
Vielen Dank auch an unseren Sponsor XL2:
XL2 ist ein Joint Venture von Audi und Capgemini, dass die digitale Transformation in der Automobilindustrie vorantreibt. Das Unternehmen erarbeitet innovative End-to-End-Prozesse und implementiert maßgeschneiderte IT-Lösungen für seine Kunden.
In der heutigen Sendung sprechen wir über das neue Speech to Text Model von OpenAI Whisper V3. Welche Veränderungen zu einer besseren Performance führten und wie Whisper Modelle mittels Distillation noch verkleinert werden können. Diese Verkleinerung führt zu ganz neuen Anwendungsfällen. Bleiben Sie dran.
XL2 ist ein Joint Venture von Audi und Capgemini, dass die digitale Transformation in der Automobilindustrie vorantreibt. Das Unternehmen erarbeitet innovative End-to-End-Prozesse und implementiert maßgeschneiderte IT-Lösungen für seine Kunden.
In der heutigen Sendung sprechen wir über Speculative Decoding, eine Methode, mit der die Inferenzzeit um den Faktor 2 - 2,4x beschleunigt werden kann. Wie das Verfahren funktioniert und welche Möglichkeiten es schafft, erfahren Sie in dieser Sendung. Bleiben Sie dran.
Vielen Dank auch an unseren Sponsor XL2:
XL2 ist ein Joint Venture von Audi und Capgemini, dass die digitale Transformation in der Automobilindustrie vorantreibt. Das Unternehmen erarbeitet innovative End-to-End-Prozesse und implementiert maßgeschneiderte IT-Lösungen für seine Kunden.
In der heutigen Sendung sprechen wir über die neuen Modelle von META, Seamless Communication. Ist dies der erste Schritt zu einer Babelfisch ähnlichen Technologie?
Vielen Dank auch an unseren Sponsor XL2:
XL2 ist ein Joint Venture von Audi und Capgemini, dass die digitale Transformation in der Automobilindustrie vorantreibt. Das Unternehmen erarbeitet innovative End-to-End-Prozesse und implementiert maßgeschneiderte IT-Lösungen für seine Kunden.
In der heutigen Sendung sprechen wir wieder über die Sicherheit von Sprachmodellen. Wir gehen auf die Verfahren von META Purple Llama ein und diskutieren deren Vor- und Nachteile.
Vielen Dank auch an unseren Sponsor XL2:
XL2 ist ein Joint Venture von Audi und Capgemini, dass die digitale Transformation in der Automobilindustrie vorantreibt. Das Unternehmen erarbeitet innovative End-to-End-Prozesse und implementiert maßgeschneiderte IT-Lösungen für seine Kunden.
In der letzten Sendung des Jahres 2023 sprechen wir über ein spannendes Model von Mistral.ai.: Mixtral 8x7b. Ein sparsed Mixture of Expert Model, das von der Performance auf dem Niveau von ChatGPT 3.5 ist, dabei aber sehr effizient ist und unter Opensource Lizenz veröffentlicht wurde.
Wir machen bis zur zweiten Januarwoche 2024 Urlaub. Danach starten wir wieder durch.
Vielen Dank auch an unseren Sponsor XL2:
XL2 ist ein Joint Venture von Audi und Capgemini, dass die digitale Transformation in der Automobilindustrie vorantreibt. Das Unternehmen erarbeitet innovative End-to-End-Prozesse und implementiert maßgeschneiderte IT-Lösungen für seine Kunden.
In der aktuellen Sendung des neuen Jahres starten wir mit einem spannenden Thema zum Jailbreaking und Red-Teaming von Sprachmodellen. Bleiben Sie dran.
Vielen Dank auch an unseren Sponsor XL2:
XL2 ist ein Joint Venture von Audi und Capgemini, dass die digitale Transformation in der Automobilindustrie vorantreibt. Das Unternehmen erarbeitet innovative End-to-End-Prozesse und implementiert maßgeschneiderte IT-Lösungen für seine Kunden.
In der heutigen Sendung sprechen wir über ein neues Sprachmodel, dass bei uns am Lehrstuhl in Ansbach von Matthias Uhlig entwickelt wurde. Es gehört gemäß einzelner Standard LLM Evaluierungframeworks zu den besten deutschen Sprachmodellen. Herr Uhlig als Entwickler führt uns durch das Modell und den Entstehungsprozess.
Vielen Dank auch an unseren Sponsor XL2:
XL2 ist ein Joint Venture von Audi und Capgemini, dass die digitale Transformation in der Automobilindustrie vorantreibt. Das Unternehmen erarbeitet innovative End-to-End-Prozesse und implementiert maßgeschneiderte IT-Lösungen für seine Kunden.
In der heutigen Sendung möchten wir über neue Architekturen bei Sprachmodellen reden. Wir zeigen auf, warum es notwendig ist Architekturen zu verbessern und zu überdenken und sprechen über einzelne Ansätze wie Mamba oder StripedHyena. Hören Sie rein.
Vielen Dank auch an unseren Sponsor XL2:
XL2 ist ein Joint Venture von Audi und Capgemini, dass die digitale Transformation in der Automobilindustrie vorantreibt. Das Unternehmen erarbeitet innovative End-to-End-Prozesse und implementiert maßgeschneiderte IT-Lösungen für seine Kunden.
In der heutigen Sendung sprechen wir über das Mergen von Modellen. Ist das der Weg um bessere Modelle zu bauen und was steckt da dahinter? All diese Fragen werden von uns in der heutigen Sendung geklärt. Bleiben Sie dran.
Vielen Dank auch an unseren Sponsor XL2:
XL2 ist ein Joint Venture von Audi und Capgemini, dass die digitale Transformation in der Automobilindustrie vorantreibt. Das Unternehmen erarbeitet innovative End-to-End-Prozesse und implementiert maßgeschneiderte IT-Lösungen für seine Kunden.
KI generierte KI News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten im Bereich KI in 5 Minuten kleine Audiocasts täglich zu bekommen.
Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt.
Dementsprechend können wir nicht immer für die richtigkeit garantieren. Wir versuchen die Qualität der Stimmen über die Dauer zu verbessern.
In der heutigen Sendung sprechen wir über das automatische Optimieren von Prompts. Wir diskutieren die Möglichketen, wie Prompt Engineering wie ein Optimierungsprozess gesehen und wie dieser automatisiert werden kann.
Ki Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in 5 min. kleinen Packeten täglich zu bekommen.
Er ist vollständig KI generiert. Einzig und Allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt.
Dementsprechend können wir nicht immer für die Richtigkeit garantieren.
Topic1: Covert Racism in LLMs: A Study on Dialect Prejudice and its Harmful Consequences https://arxiv.org/abs/2403.00742 Topic2: A Safe Harbor for Independent AI Evaluation https://sites.mit.edu/ai-safe-harbor/ Topic3: IMBUE: Improving Interpersonal Effectiveness through Simulation and Just-in-time Feedback with Human-Language Model Interaction. https://arxiv.org/pdf/2402.12556.pdf Topic4: Storm: Assisting in Writing Wikipedia-like Articles From Scratch with Large Language Models. https://arxiv.org/pdf/2402.14207.pdf
Ki Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in 5 min. kleinen Packeten täglich zu bekommen.
Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt.
Dementsprechend können wir nicht immer für die Richtigkeit garantieren.
Topic 1: Exploring Collaboration Mechanisms for LLM Agents: A Social Psychology View. https://arxiv.org/abs/2310.02124 Topic 2: Design2Code: How Far Are We From Automating Front-End Engineering? https://arxiv.org/abs/2403.03163 Topic 3: RAPTOR: Recursive Abstractive Processing for Tree-Organized Retrieval. https://arxiv.org/html/2401.18059v1 Topic 4: Towards General Computer Control: A Multimodal Agent for Red Dead Redemption II as a Case Study. https://arxiv.org/abs/2403.03186
Ki Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in 5 min. kleinen Packeten täglich zu bekommen.
Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt.
Dementsprechend können wir nicht immer für die Richtigkeit garantieren.
Topic 1: ShortGPT: Layers in Large Language Models are More Redundant Than You Expect. https://arxiv.org/pdf/2403.03853.pdf Topic 2: Backtracing: Retrieving the Cause of the Query https://arxiv.org/pdf/2403.03956.pdf Topic 3: MUFFIN: Curating Multi-Faceted Instructions for Improving Instruction-Following. https://arxiv.org/abs/2312.02436 Topic 4: ## Introducing COLD-Attack: A Framework for Controllable Jailbreaking of LLMs. https://arxiv.org/abs/2402.08679
Ki Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in 5 min. kleinen Packeten täglich zu bekommen.
Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt.
Dementsprechend können wir nicht immer für die Richtigkeit garantieren.
Topic 1: Pan. et. al: Unifying Large Language Models and Knowledge Graphs: A Roadmap. https://arxiv.org/pdf/2306.08302.pdf Topic 2: Yi: Open Foundation Modelx by 01.AI. https://arxiv.org/pdf/2403.04652.pdf Topic 3: OpenSora - https://github.com/hpcaitech/Open-Sora Topic 4: Europe AI Office https://digital-strategy.ec.europa.eu/en/policies/ai-office?utm_source=aisecret.us&utm_medium=Aisecret.us&utm_campaign=Daily
Ki Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in 5 min. kleinen Packeten täglich zu bekommen.
Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt.
Dementsprechend können wir nicht immer für die Richtigkeit garantieren.
Topic 1: Can LLMs Reason and Plan? https://arxiv.org/abs/2403.04121 Topic 2: # Functional Benchmarks for Robust Evaluation of Reasoning Performance, and the Reasoning Gap http://arxiv.org/abs/2402.19450 Topic 3: XAI - ELon Musk will release his LLM Grok as opensource this week Topic 4: Enhancing Static Analysis for Practical Bug Detection: An LLM-Integrated Approach. https://haonan.me/static/papers/LLift_oopsla.pdf
Heute sprechen wir über Hintertüren bei Sprachmodellen und was dies für die Sicherheit von LLMs bedeutet. Wir zeigen auf wie Backdoors entstehen könnten und diskutieren die Konsequenz daraus.
Eine spannende Sendung. Hören Sie rein.
Sleeper Agents: https://arxiv.org/abs/2401.05566 Poisoning Language Models During Instruction Tuning https://arxiv.org/abs/2305.00944
Ki Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in 5 min. kleinen Packeten täglich zu bekommen.
Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt.
Dementsprechend können wir nicht immer für die Richtigkeit garantieren.
Topic 1: Devon AI Softwareeveloper https://www.youtube.com/watch?v=fjHtjT7GO1c Topic 2: Improving Language Plasticity via Pretraining with Active Forgetting Topic 3: Bias-Augmented Consistency Training Reduces Biased Reasoning in Chain-of-Thought. https://arxiv.org/abs/2403.05518
Ki generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in 5 min. kleinen Paketen täglich zu bekommen.
Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt.
Dementsprechend können wir nicht immer für die Richtigkeit garantieren.
Topic 1: AI Act. https://artificialintelligenceact.eu/de/bewertung/eu-ai-act-compliance-checker/ Topic 2: Branch-Train-MiX: Mixing Expert LLMs into a Mixture-of-Experts LLM. https://arxiv.org/abs/2403.07816 Topic 3: Synth 2: Boosting Visual-Language Models with Synthetic Captions and Image Embeddings https://arxiv.org/abs/2403.07750
KI generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist, die aktuellen Nachrichten in 5 min. kleinen Podcasts täglich zu bekommen.
Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt.
Dementsprechend können wir nicht immer für die Richtigkeit garantieren. Wir tun aber unser Bestes.
Topic 1: Chronos: Learning the Language of Time Series - https://arxiv.org/abs/2403.07815 Topic 2: SOTOPIA-π: Interactive Learning of Socially Intelligent Language Agents https://arxiv.org/abs/2403.08715 Topic 3: Knowledge Conflicts A Survey - https://arxiv.org/pdf/2403.08319.pdf
Ki Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in 5 min. kleinen Packeten täglich zu bekommen.
Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt.
Dementsprechend können wir nicht immer für die Richtigkeit garantieren.
Topic 1: Quiet-STaR: Language Models Can Teach Themselves to Think Before Speaking. https://arxiv.org/abs/2403.09629 Topic 2: Lifelong Benchmarks: Efficient Model Evaluation in an Era of Rapid Progress. https://arxiv.org/abs/2402.19472 Topic 3: Stealing Part of a Production Language Model. https://arxiv.org/abs/2403.06634
Ki Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in 5 min. kleinen Paketen täglich zu bekommen.
Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt.
Dementsprechend können wir nicht immer für die Richtigkeit garantieren.
Topic 1: Enhancing LLM Factual Accuracy with RAG to Counter Hallucinations: A Case Study on Domain-Specific Queries in Private Knowledge-Bases. https://arxiv.org/pdf/2403.10446.pdf Topic 2: Simple and Scalable Strategies to Continually Pre-train Large Language Models. https://arxiv.org/abs/2403.08763 Topic 3: Mixture-of-Experts (MoE): The Birth and Rise of Conditional Computation. https://cameronrwolfe.substack.com/p/conditional-computation-the-birth
Ki Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in 5 min. kleinen Paketen täglich zu bekommen.
Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt.
Dementsprechend können wir nicht immer für die Richtigkeit garantieren.
Topic 1: Parameter Efficient Reinforcement Learning from Human Feedback https://arxiv.org/pdf/2403.10704.pdf Topic 2: NVIDIA Blackwell AI Superchip - https://www.cnbc.com/2024/03/18/nvidia-announces-gb200-blackwell-ai-chip-launching-later-this-year.html Topic 3: From Quantity to Quality: Boosting LLM Performance with Self-Guided Data Selection for Instruction Tuning" https://arxiv.org/abs/2308.12032
Ki Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in 5 min. kleinen Paketen täglich zu bekommen.
Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt.
Dementsprechend können wir nicht immer für die Richtigkeit garantieren.
Topic 1: Common Corpus - https://huggingface.co/blog/Pclanglais/common-corpus Topic 2: TnT-LLM: Text Mining at Scale with Large Language Models - https://arxiv.org/pdf/2403.12173.pdf Topic 3: Paloma A BENCHMARK FOR EVALUATING LANGUAGE MODEL FIT - https://arxiv.org/pdf/2312.10523.pdf
Wir sprechen heute über Softwareentwicklung mit Hilfe von generativer KI. Genaugenommen geht es nicht nur um Code-Vervollständigung, sondern um automatische Übernahme ganzer Code Aufgaben. Bleiben Sie dran, wenn Sie wissen wollen wo die Entwicklung in diesem Bereich steht.
KI Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in 5 min. kleinen Paketen täglich zu bekommen.
Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt.
Dementsprechend können wir nicht immer für die Richtigkeit garantieren.
Topic 1: Prompt-RAG - Pioneering Vector Embedding-Free Retrieval-Augmented Generation in Niche Domains, Exemplified by Korean Medicine - https://arxiv.org/pdf/2401.11246.pdf Topic 2: ORCA2 - Teaching Small Language Models How to Reason https://www.microsoft.com/en-us/research/blog/orca-2-teaching-small-language-models-how-to-reason/ Topic 3: Evolutionary Optimization of Model Merging Recipes https://arxiv.org/abs/2403.13187
KI Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in 5 min. kleinen Paketen täglich zu bekommen.
Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt.
Dementsprechend können wir nicht immer für die Richtigkeit garantieren.
Topic1: FollowIR: Evaluating and Teaching Information Retrieval Models to Follow Instructions - https://arxiv.org/abs/2403.15246 Topic 2: LLM2LLM: Boosting LLMs with Novel Iterative Data Enhancement https://arxiv.org/pdf/2403.15042.pdf Topic 3: Detoxifying Large Language Models via Knowledge Editing. https://arxiv.org/pdf/2403.14472v1.pdf
Ki Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in 5 min. kleinen Paketen täglich zu bekommen.
Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt.
Dementsprechend können wir nicht immer für die Richtigkeit garantieren.
Topic 1: Having Beer after Prayer? Measuring Cultural Bias in Large Language Models - https://arxiv.org/pdf/2305.14456.pdf Topic 2: Reinforcement Learning-based Recommender Systems with Large Language Models for State Reward and Action Modeling - https://arxiv.org/pdf/2403.16948.pdf Topic 3: Introducing Stable Code Instruct 3B https://stability.ai/news/introducing-stable-code-instruct-3b https://static1.squarespace.com/static/6213c340453c3f502425776e/t/6601c5713150412edcd56f8e/1711392114564/Stable_Code_TechReport_release.pdf
Ki Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in 5 min. kleinen Paketen täglich zu bekommen.
Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt.
Dementsprechend können wir nicht immer für die Richtigkeit garantieren.
Topic 1: Introducing DBRX: A New State-of-the-Art Open LLM - https://www.databricks.com/blog/introducing-dbrx-new-state-art-open-llm Topic 2: RAFT: Adapting Language Model to Domain Specific RAG - https://arxiv.org/abs/2403.10131 Topic 3: EasyJailbreak: A Unified Framework for Jailbreaking Large Language Models - https://arxiv.org/abs/2403.12171
Ki Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in 5 min. kleinen Paketen täglich zu bekommen.
Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt.
Dementsprechend können wir nicht immer für die Richtigkeit garantieren.
Topic 1: The Unreasonable Ineffectiveness of the Deeper Layers - https://arxiv.org/abs/2403.17887https://www.databricks.com/blog/introducing-dbrx-new-state-art-open-llm Topic 2: Monitoring AI-Modified Content at Scale: A Case Study on the Impact of ChatGPT on AI Conference Peer Reviews - https://arxiv.org/abs/2403.07183 Topic 3: LONG-FORM FACTUALITY IN LARGE LANGUAGE MODELS - https://arxiv.org/pdf/2403.18802.pdf
KI Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in 5 min. kleinen Paketen täglich zu bekommen.
Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt.
Dementsprechend können wir nicht immer für die Richtigkeit garantieren.
Topic 1:Design2Code: How Far Are We From Automating Front-End Engineering? https://arxiv.org/pdf/2403.03163.pdf Topic 2: Transformer-Lite: High-efficiency Deployment of Large Language Models on Mobile Phone GPUs https://arxiv.org/pdf/2403.20041v1.pdf Topic3: ReALM: Reference Resolution As Language Modeling - https://arxiv.org/pdf/2403.20329.pdf
KI Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in 5 min. kleinen Paketen täglich zu bekommen.
Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt.
Dementsprechend können wir nicht immer für die Richtigkeit garantieren.
Topic 1: QuaRot: Outlier-Free 4-Bit Inference in Rotated LLMs https://arxiv.org/pdf/2404.00456.pdf Topic 2: What’s in Your “Safe” Data?: Identifying Benign Data that Breaks Safety https://arxiv.org/pdf/2404.01099.pdf Topic 3: Tired of Plugins? Large Language Models Can Be End-To-End Recommenders https://arxiv.org/pdf/2404.00702.pdf
KI Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in 5 min. kleinen Paketen täglich zu bekommen.
Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt.
Dementsprechend können wir nicht immer für die Richtigkeit garantieren.
Topic 1: Octopus v2: On-device language model for super agent. https://arxiv.org/pdf/2404.01744.pdf Topic 2: Privacy Backdoors: Stealing Data with Corrupted Pretrained Models. https://arxiv.org/pdf/2404.00473.pdf Topic 3: OPTIMIZATION-BASED PROMPT INJECTION ATTACK TO LLM-AS-A-JUDGE. https://arxiv.org/pdf/2403.17710v1.pdf
KI Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in 5 min. kleinen Paketen täglich zu bekommen.
Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt.
Dementsprechend können wir nicht immer für die Richtigkeit garantieren.
Topic 1: Command R+ https://txt.cohere.com/command-r-plus-microsoft-azure/ Topic 2: Do Language Models Plan for Future Tokens? https://arxiv.org/pdf/2404.00859.pdf Topic 3:Jailbreaking Leading Safety-Aligned LLMs with Simple Adaptive Attacks https://arxiv.org/pdf/2404.02151.pdf
Aus gegeben Anlass werden wir in dieser Sendung das Thema Red Teaming noch einmal aufgreifen. In dieser Episode werden wir einen erweiterten Überblick über das Thema geben. Bleiben Sie dran.
Against The Achilles’ Heel: A Survey on Red Teaming for Generative Models: https://arxiv.org/abs/2404.00629
Gerne können Sie auch Folge 107 zum Thema Red Teaming mit anhören.
KI Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in 5 min. kleinen Paketen täglich zu bekommen.
Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt.
Dementsprechend können wir nicht immer für die Richtigkeit garantieren.
Topic 1: More Agents Is All You Need https://arxiv.org/pdf/2402.05120.pdf Topic 2: Visualization-of-Thought Elicits Spatial Reasoning in Large Language Models https://arxiv.org/pdf/2404.03622.pdf Topic 3: Evaluating LLMs at Detecting Errors in LLM Responses https://arxiv.org/pdf/2404.03602v1.pdf
KI Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in 5 min. kleinen Paketen täglich zu bekommen.
Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt.
Dementsprechend können wir nicht immer für die Richtigkeit garantieren.
Topic 1: Stream of Search (SoS): Learning to Search in Language https://arxiv.org/pdf/2404.03683.pdf Topic 2: ARAGOG: Advanced RAG Output Grading https://arxiv.org/pdf/2404.01037.pdf Topic 3: Direct Nash Optimization: Teaching Language Models to Self-Improve with General Preferences https://arxiv.org/pdf/2404.03715.pdf
KI Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in 5 min. kleinen Paketen täglich zu bekommen.
Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt.
Dementsprechend können wir nicht immer für die Richtigkeit garantieren.
Topic 1: SELF-[IN]CORRECT: LLMs Struggle with Refining Self-Generated Responses https://arxiv.org/pdf/2404.04298.pdf Topic 2: PhonologyBench: Evaluating Phonological Skills of Large Language Models https://arxiv.org/pdf/2404.02456.pdf Topic 3: MuPT: A Generative Symbolic Music Pretrained Transformer https://arxiv.org/pdf/2404.06393.pdf
KI Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in 5 min. kleinen Paketen täglich zu bekommen.
Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt.
Dementsprechend können wir nicht immer für die Richtigkeit garantieren.
Topic 1: LLM-Augmented Retrieval: Enhancing Retrieval Models Through Language Models and Doc-Level Embedding https://arxiv.org/pdf/2404.05825.pdf Topic 2: LM2: A Simple Society of Language Models Solves Complex Reasoning https://arxiv.org/pdf/2404.02255.pdf Topic 3: Graph Chain-of-Thought: Augmenting Large Language Models by Reasoning on Graphs https://arxiv.org/pdf/2404.07103.pdf
In der heutigen Sendung möchten wir darüber sprechen, ob die Schnittstelle zu LLMs - also Chat Eingabe - die richtige Eingabeform ist oder ob wir in Zukunft andere Schnittstellen zu LLMs sehen. Eine wesentliche Diskussion ist die Einbettung von LLMs auf Betriebssystemebene. Bleiben Sie dran.
Enhance your understanding of Knowledge Science - Alles über KI, ML und NLP with My Podcast Data
At My Podcast Data, we strive to provide in-depth, data-driven insights into the world of podcasts. Whether you're an avid listener, a podcast creator, or a researcher, the detailed statistics and analyses we offer can help you better understand the performance and trends of Knowledge Science - Alles über KI, ML und NLP. From episode frequency and shared links to RSS feed health, our goal is to empower you with the knowledge you need to stay informed and make the most of your podcasting experience. Explore more shows and discover the data that drives the podcast industry.