Введение
Если вы разрабатываете свою искру дальше в пространстве кода GitHub, вы можете развернуть ее прямо из командной строки с помощью Spark CLI, расширения GitHub CLI.
Предпосылки
-
**Доступ к GitHub Copilot**. Вам нужна лицензия Copilot Pro+ или Copilot Enterprise для использования Spark. См [. раздел AUTOTITLE](/copilot/about-github-copilot/what-is-github-copilot#getting-access-to-copilot). - Вы должны создать приложение Spark («искру»). Чтобы начать сборку, перейдите по адресу Spark.
- Вы создали репозиторий для своей искры на GitHub. Инструкции см. в разделе Создание и развертывание приложений на основе ИИ с помощью GitHub Spark.
Откройте Spark в пространстве кода
Интерфейс командной строки Spark в настоящее время работает только в пространстве кода GitHub.
- Перейдите на главную страницу репозитория вашего Spark по адресу GitHub.
- Нажмите кнопку Code , а затем перейдите на вкладку "Пространства кода".
- Нажмите , чтобы создать пространство кода. Пространство кода откроется в новой вкладке браузера.
Установите интерфейс командной строки Spark
-
В терминале в пространстве кода выполните следующую команду, чтобы установить интерфейс командной строки Spark:
Bash gh extensions install github/gh-runtime-cli
gh extensions install github/gh-runtime-cli -
После завершения установки, чтобы убедиться, что интерфейс командной строки Spark установлен, выполните:
Bash gh runtime-cli version
gh runtime-cli version
Соберите свою искру
-
В терминале в пространстве кода выполните следующую команду, чтобы установить последнюю версию пакета SDK Spark:
Bash npm install @github/spark@latest
npm install @github/spark@latest -
Затем выполните следующую команду, чтобы скомпилировать приложение Spark.
Bash npm run build
npm run build
Разверните свою искру
-
Чтобы развернуть приложение Spark, выполните:
Bash gh runtime-cli deploy --dir ./dist
gh runtime-cli deploy --dir ./dist
Устранение неполадок
Если вас просят указать этот --app параметр при развертывании Spark, обновите пакет SDK Spark до последней версии, выполнив шаг 1 в разделе Создание Spark.