На WWDC25 Apple расширила функционал Swift Assist в Xcode 26: теперь разработчики могут подключать сторонние LLM, включая локальные модели (Ollama, LM Studio). Помимо базового облачного инструмента с защитой приватности, добавлены встроенная модель для автодополнения кода и интеграция ChatGPT с лимитом бесплатных запросов (можно использовать свой API-ключ). Система стала модульной — через API доступны модели вроде Anthropic, выбор провайдеров не ограничен. Решения Apple делают Xcode гибким инструментом в эпоху мультимодельного ИИ, сохраняя фокус на кастомизацию и независимость от обновлений собственных моделей компании. Как вы используете LLM в разработке?