# LLM 0.32a0 is a major backwards-compatible refactor Canonical URL: https://www.traeai.com/articles/da0e311b-f1fb-440f-863d-f16fdcd6ecbe Original source: https://simonwillison.net/2026/Apr/29/llm/#atom-everything Source name: Simon Willison's Weblog Content type: article Language: 英文 Score: 8.5 Reading time: 8 分钟 Published: 2026-04-29T19:01:47+00:00 Tags: LLM, Python, 自然语言处理 ## Summary LLM 0.32a0 版本重构了输入输出模型,支持消息序列和多类型响应流,以适应现代大语言模型的多样性。 ## Key Takeaways - 新版本支持将输入表示为消息序列。 - 模型响应可以由不同类型的多个部分组成。 - 改进了与现有API(如OpenAI)的兼容性。 ## Outline - 引言 — 介绍了 LLM 0.32a0 的发布及其主要变化。 - 背景 — 回顾了 LLM 库的发展历程及面临的挑战。 - 关键变化 — 详细说明了两个主要更新:消息序列输入和多类型响应流。 - 消息序列输入 — 解释了如何使用消息序列进行对话式交互。 - 多类型响应流 — 描述了模型响应可以包含多种类型的数据。 ## Highlights - > LLM needs to evolve to better handle the diversity of input and output types that can be processed by today’s frontier models. — 第 4 段 - > The new alpha now supports this: import llm from llm import user, assistant model = llm.get_model('gpt-5.5') response = model.prompt(messages=[user('Capital of France?'), assistant('Paris'), user('Ger — 第 16 段 - > You can also now _reply_ to a response, as an alternative to building a conversation: response2 = response.reply('How about Hungary?') print(response2) # Default __str__() calls .text() — 第 19 段 ## Citation Guidance When citing this item, prefer the canonical traeai article URL for the AI-readable summary and include the original source URL when discussing the underlying source material.