无论是前端开发人员还是其他开发人员,都需要一种方法来修改 AI 模型。Red Hat 允许前端开发人员通过在本地使用 AI 模型来做到这一点。
Red Hat 开发工具首席产品经理Stevan Le Meur表示,Podman AI Lab 让开发人员可以在桌面上探索模型,从而创建不仅仅是聊天机器人的应用程序。
Le Meur 表示,人们的大部分注意力都集中在人工智能将如何彻底改变应用程序的构建方式,但它也将彻底改变应用程序本身,并补充说它已经成为新的常态。
Le Meur 告诉 The New Stack:“我们让开发人员能够在本地工作,但我们也为他们提供如何将应用程序部署到生产中的最佳实践,所以它是一种工具。”“我们希望让他们发现他们可以用人工智能做什么,我们也希望他们能够快速地用这个模型进行实验。”
人工智能应用有何不同
它还允许开发人员专注于组织自己的数据,而不仅仅是使用通用训练的模型。
“数据是人工智能应用的燃料,”他说。“这不仅仅关乎 API 本身。它还关乎如何构建整个管道。”
他说道,开发人员会发现构建 AI 应用程序有所不同,因为在使用大型语言模型(LLM) 或其他 GenAI 模型时,需要花费大量时间构建控制模型行为的模块。
Le Meur 说:“模型总是存在不确定性,它会给你一些非常棘手的结果,而你希望能够处理这些结果,因为你不想将这些结果暴露给你的最终用户。”
这就是为什么直到现在数据科学家已经掌握了构建机器学习应用程序的过程的原因之一。
“数据科学家和应用程序开发人员之间存在一些矛盾,数据科学家已经构建了很多东西,而应用程序开发人员可能不熟悉这项技术,可能对人工智能的总体含义以及如何使用人工智能有些担心,”他说。“随着 GenAI 的兴起,你可以看到它越来越深入应用程序开发人员的思维方式,现在应用程序开发人员愿意对其应用程序进行现代化改造,并开始思考人工智能如何提供帮助。”
他补充说,人工智能成功的关键在于在数据科学家和开发人员之间建立正确的流程,确保开发人员不会“陷入困境”。
对于各类开发人员来说,这意味着更多地参与数据。
在本地处理数据和模型
他说, Podman AI Labs于 5 月份推出,是 Podman Desktop 的开源扩展,该工具可帮助应用程序开发人员将应用程序容器化并在本地开发环境中与 Kubernetes 协同工作。
Podman AI Labs 还可以支持数据的预处理、RAG(检索增强生成)或后处理,然后将应用程序转换到用于管理容器化应用程序的平台,例如 Kubernetes 或 OpenShift,后者是 Red Hat 基于 Kubernetes 构建的云原生应用程序平台,他补充道。
“作为应用程序开发人员,在本地工作非常重要,我希望能够测试事物、快速迭代并从我在开发环境中已经使用的所有不同工具中获益,”Le Meur 解释道。
它还旨在解决使用 API 连接 AI 模型时的成本问题。
“显然,当你在本地运行时,你只需利用你在本地环境中的计算能力,这比调用云端某处的 API 稍微便宜一些,而后者的成本也可能非常高,”他说。
Podman AI Labs 允许开发人员在云服务上使用 AI 模型,同时仍将数据保留在内部。他补充说,在本地运行数据也有助于确保数据安全,不会泄露给第三方供应商,第三方供应商可能会使用这些数据重新训练自己的模型。
前端开发用例
聊天机器人是人工智能应用开发的第一阶段,但人工智能正在迅速进入其他用例,Le Meur 表示。
他说,想要利用人工智能进行开发的开发人员可以先寻找优化现有应用程序并提高其效率的方法。他们还可以考虑人工智能如何为客户或商业用户带来新的体验。
“然后你需要看看,我拥有哪些对我的业务来说独一无二的数据,哪些对我的知识来说独一无二的数据,哪些对于构建体验非常有用,哪些能够让我与众不同,哪些能够帮助我的业务,”他说。
为了帮助开发人员快速启动创作过程,Podman AI 包含一个食谱目录,其中提供开源“食谱”,以帮助开发人员识别常见的 AI 用例和解决方案。他说,前端开发人员将在那里找到适合他们工作的用例。他们可以简单地获取模型并在本地运行它。
“然后他们将拥有一个带有 API 的推理服务器,而这些 API 正是我们所看到的或多或少成为标准的 API,即OpenAI API,因此我们与它们兼容,”他说。“开发人员可以构建他们的应用程序,连接到这些 API……他们还将有一种方法可以调试他们的应用程序。他们将能够了解如何打包他们的应用程序并将其部署到云端。”
Le Meur 表示,用户界面、用户体验和人工智能的交汇是关键。
他说:“通过研究人工智能如何帮助你的应用程序、帮助你的业务,以及研究 UI、UX 和人工智能之间的交集,你可以更明智地利用你的数据,并创造竞争优势。”
网友评论文明上网理性发言已有0人参与
发表评论: