- Agent Bricks, AI Playground, MLflow는 Unity Catalog의 거버넌스를 통해 프로토타입부터 배포까지 모든 것을 포괄합니다.
- ResponsesAgent는 MLflow 및 AI Gateway와 통합된 스트리밍, 멀티 에이전트 및 풍부한 추적 기능을 제공합니다.
- deploy()를 사용하여 배포하면 실시간 추적 및 검토가 가능한 안전한 엔드포인트가 생성됩니다.

Databricks에서 인공 지능 에이전트를 설정하는 것은 더 이상 초기술 프로필의 전유물이 아닙니다. AI Playground와 같은 시각적 환경Agent Bricks와 MLflow 프레임워크를 활용한 자동화를 통해 이제 아이디어 단계에서 프로토타입으로, 프로토타입 단계에서 프로덕션 단계로의 전환을 무리 없이 진행할 수 있습니다. 이 가이드에서는 도구를 호출하고, 데이터를 쿼리하고, 거버넌스와 통합하는 에이전트를 생성, 테스트 및 배포하는 데 필요한 모든 내용을 압축하여 담았습니다. Unity 카탈로그.
"코드 없음" 접근 방식과 Python을 사용한 개발을 탐색하는 것 외에도 에이전트를 패키징하는 방법을 살펴보겠습니다. MLflow(ChatAgent 및 ResponsesAgent)카탈로그에 리소스를 등록하고, 실시간 모니터링을 활성화하고, Model Serving을 사용하여 확장하세요. 샘플 앱도 포함되어 있습니다. 리액트 + 패스트API 귀하의 에이전트를 원활한 엔터프라이즈 웹 인터페이스로 연결해 드립니다.
Databricks에서 에이전트를 생성하기 위한 옵션
속도와 단순성을 선호한다면, 에이전트 브릭스 도메인에 맞춰 고품질의 에이전트 시스템을 구축하기 위한 자동화된 워크플로를 제공합니다. 사용 사례를 지정하고 데이터를 연결하세요. 유니티 카탈로그이 플랫폼은 에이전트 변형을 생성하고, 평가를 통해 최적화하며, 통합된 거버넌스와 보안을 통해 세부화할 수 있도록 해줍니다.
정밀한 제어가 필요하고 알려진 라이브러리를 재사용해야 하는 경우 코드 내 접근 방식이 결합됩니다. Mosaic AI 에이전트 프레임워크 및 MLflowPython을 사용하면 에이전트 로직을 정의하고, 도구 호출을 활성화하고, 자세한 추적을 수행하고, 마지막으로 이를 패키징하여 Databricks 생태계에서 프로덕션에 제공할 수 있습니다.
이미 타사 프레임워크를 사용하고 있는 경우 기본적으로 지원됩니다. 랭그래프/랭체인, 라마 인덱스 또는 사용자 지정 Python 구현. MLflow의 모델 시그니처와 에이전트 인터페이스 덕분에 이를 연결할 수 있습니다. 평가 및 모니터링 기능 처음부터 다시 쓰지 않고도.
최고 속도로 프로토타입을 만들고 싶으신가요? AI 놀이터 모델과 가상 머신을 선택하고, 로우코드 인터페이스를 통해 LLM에 도구를 추가하고, 채팅을 통해 검증합니다. 그런 다음 에이전트를 내보냅니다. 프로덕션에 바로 적용 가능한 코드 그리고 표준 라이프 사이클을 계속 진행합니다.
모델 서명 및 플랫폼 기능과의 호환성
Azure Databricks 사용 MLflow 모델 시그니처 에이전트의 입력 및 출력 체계를 설명합니다. AI Playground 또는 평가와 같은 제품 기능은 에이전트가 지원되는 서명 중 하나를 준수할 것으로 예상합니다. 상호 운용성을 보장하다.
에이전트를 구축할 때 권장되는 접근 방식을 따르면, MLflow는 자동으로 추론합니다 호환되는 서명에는 추가 단계가 필요하지 않습니다. 그렇지 않은 경우 구현이 다음 서명 중 하나를 준수하는지 확인하세요. 상속받은 계획 Databricks 도구와 통합할 때 예상치 못한 상황을 방지하여 에이전트의 진입 및 이탈을 방지합니다.
간단한 튜토리얼: Mosaic AI 에이전트 프레임워크를 사용한 첫 번째 에이전트
목표는 추론하는 에이전트를 만드는 것입니다. Databricks에서 호스팅되는 LLM 예를 들어 내장 함수와 같은 도구를 실행할 수 있습니다. system.ai.python_exec Unity 카탈로그에서 Python 코드를 실행합니다. 또한 다음을 활성화합니다. MLflow로 추적 흔적을 검사하고 진단하기 위해.
기본 작업 공간 요구 사항: 에이전트 기능 활성화 및 모델 제공에 대한 액세스런타임 환경에서 다음과 같은 패키지를 설치합니다. mlflow, databricks-openai 그리고 에이전트 패커(databricks-agent o databricks-agents(따르는 가이드와 버전에 따라 다름) Python을 다시 시작하여 종속성을 로드합니다.
OpenAI 클라이언트를 사용하여 모델 서비스에 대한 연결을 정의합니다. WorkspaceClient, 활동적인 mlflow.openai.autolog() 자동 계측을 위해 사용 가능한 도구를 기록합니다. 그중에는 system.ai.python_exec 이는 상태 비저장 Python 인터프리터 역할을 하며 LLM이 대화 중에 계산을 하거나 데이터를 조작할 수 있도록 합니다.
다음과 같은 기능을 사용하여 run_agent(), 사용자의 프롬프트를 채팅 엔드포인트로 보냅니다(예를 들어, "와 같은 모델데이터브릭스-클로드-3-7-소네트«그리고 가능한 관리 도구에 대한 호출 보조 메시지와 도구 응답을 일관된 목록으로 반환합니다.
테스트하려면 코드가 필요한 쿼리를 실행합니다(예: 계산). 피보나치 수 100) 마법사의 출력과 다음을 모두 확인합니다. MLflow 추적 노트북이나 관련 실험에 기록합니다. 이렇게 하면 패키징 전에 오케스트레이션을 세부적으로 조정할 수 있습니다.
MLflow와 함께 패키징되어 Model Serving에 배포됨
에이전트를 프로덕션에 준비하기 위한 권장 방법은 인터페이스를 구현하는 것입니다. MLflow 채팅 에이전트당신에게는 방법이 필요합니다 predict() 메시지를 수락하고 에이전트 논리를 호출하고 반환합니다. 채팅 에이전트 응답 메시지 목록(해당되는 경우 도구와 관련된 중간 메시지 포함)
종속성을 용이하게 하기 위해 모든 코드를 단일 Python 파일로 통합합니다(예: 다음을 사용하여). %%writefile quickstart_agent.py (노트북으로 작업하는 경우). 마지막 부분에서는 다음을 호출합니다. mlflow.models.set_model() 클래스의 인스턴스를 전달합니다(예: QuickstartAgent)을 확립하기 위해 진입점 추론의.
에이전트를 등록하세요 Unity 카탈로그 와 mlflow.pyfunc.log_model포함 자원 프로덕션에 필요한 것: LLM 모델 엔드포인트(예: DatabricksServingEndpoint) 및 에이전트가 호출할 카탈로그 기능(예: DatabricksFunction 와 system.ai.python_exec따라서 Databricks는 인증 구성 배포 시 이러한 리소스를 사용합니다.
마지막으로 Agent API를 사용하여 고갈 모델을 서비스 엔드포인트로: from databricks import agents y agents.deploy(model_name, model_version)엔드포인트가 시작되면 다음을 수행할 수 있습니다. AI Playground에서 채팅관심 있는 당사자들과 공유하고 피드백을 수집하세요.
지속적으로 개선하고 싶다면 Databricks에서 다음 가이드를 제공합니다. 에이전트 품질 측정비정형 데이터 및 다중 턴 대화 제어에 대한 복구(RAG)를 갖춘 에이전트 구축 및 대안 LangGraph, 순수 Python 또는 OpenAI.
ResponsesAgent: 프로덕션 에이전트를 위한 최신 인터페이스
이기는하지만 챗에이전트 잘 작동하고 MLflow에서 오늘 추천했습니다. 응답 에이전트 진지한 에이전트를 위한 인터페이스입니다. 이 인터페이스는 다음 계획과 호환됩니다. Responses OpenAI에서 제공하며 에이전트 통합을 허용합니다. 어떤 프레임워크 Databricks의 기능(등록, 추적, 평가, 배포 및 관찰)을 마찰 없이 사용할 수 있습니다.
주요 장점: 기본 지원 sistemas 다중 에이전트, 종료 모드 스트리밍, 메시지 및 도구 호출의 전체 기록, 도구 호출 확인 및 오래 지속되는 도구. 게다가, 그것은 제공합니다 유형화된 인터페이스 Python에서 자동 서명 추론, 자동 추적 predict y predict_stream 및 개선된 추론 테이블 AI 게이트웨이.
이 접근 방식에 대한 설치 요구 사항: databricks-agents 1.2.0+, mlflow 3.1.3+ y Python 3.10 이상 (Serverless 또는 Databricks Runtime 13.3 LTS+ 사용). Databricks는 다음 패키지도 권장합니다. AI 브릿지 일반적인 통합을 위해.
유용한 통합: databricks-openai (오픈AI), databricks-langchain (랭체인/랭그래프), databricks-dspy (DSPy) 및 databricks-ai-bridge (순수 Python의 에이전트). 이러한 부분을 사용하면 간단한 에이전트부터 복잡한 파이프라인 복구 및 도구 호출이 가능합니다.
이미 내장 에이전트가 있는 경우 이를 상속하는 클래스로 래핑합니다. mlflow.pyfunc.ResponsesAgent. 구현하다 predict 입력과 출력을 변환하려면 ResponsesAgent 스키마스트리밍을 위해서는 다음을 사용하세요. predict_stream, 방출 델타 그리고 마지막 이벤트 response.output_item.done 전체 답변을 추가해 주세요.
스트리밍 오류와 관련하여 Mosaic AI는 마지막 토큰과 함께 오류를 전파합니다. databricks_output.error귀하의 클라이언트는 이를 올바르게 캡처하고 표시하여 개선해야 합니다. 정화 경험.
복구 시스템, 맞춤형 입력 및 추적성
많은 에이전트가 사용합니다 재활용업체 벡터 인덱스에 대한 RAG의 경우. 검색 범위가 다른 체계를 노출하는 경우 다음을 사용하여 매핑할 수 있습니다. mlflow.models.set_retriever_schema선언하다 primary_key, text_column, doc_uri 및 기타 열. 따라서 AI Playground에서는 출처 링크 복구되었으며 평가가 적용됩니다. 관련성 점수자 자동적으로
귀하의 에이전트가 추가 정보를 요구하는 경우(예: 클라이언트 유형 o session_id), 사용 custom_inputs 그리고 메타데이터를 반환합니다. custom_outputs 채팅 기록에 영향을 미치지 않아야 합니다. AI Playground와 리뷰 앱 모두 사용자 정의 입력 UI에서.
deploy(), 요구 사항 및 자동화된 작업을 사용한 배포
Mosaic AI Model Serving에 에이전트를 게시하려면 다음 기능을 사용하세요. deploy() Python API의. MLflow 3에서 설치 mlflow >= 3.1.3 y databricks-agents >= 1.1.0 (노트북 외부에 배포하는 경우). MLflow 2.x에서는 최소값이 변경됩니다(예: mlflow >= 2.13.1 y databricks-agents >= 0.12.0확실하게 하다 Unity Catalog에 에이전트 등록 배포하기 전에.
에게 전화 해 deploy() 확장 가능한 엔드포인트를 구축하세요 자동 밸런싱, 구성 보안 인증 Databricks 리소스(벡터 인덱스, 카탈로그 기능)에 대해 소유자 권한을 확인하고 활성화합니다. 검토 신청서 이해관계자와의 협력을 위해.
또한 다음을 가능하게 합니다. 실시간 모니터링 MLflow에서(활성 실험 및 추론 테이블의 추적 포함). MLflow 3에서는 다음과 같이 구성할 수 있습니다. 생산 감독 자동 품질 평가가 가능하며 REST 요청 및 코멘트는 다음에 기록됩니다. 추론 테이블 (최신 피드백 API 포함).
사용자 정의하려면 인수를 전달하세요. deploy() 으로 scale_to_zero_enabled=True첫 번째 요청 시 지연 시간이 길어지는 대신 가동 중지 후 비용을 절감할 수 있습니다. 또한 유틸리티도 있습니다. 나열, 가져오기 및 삭제 Agent API를 통한 배포.
상태, 구성 및 실행 패턴에 대한 모범 사례
모델 제공이 분산됩니다. 피하세요 로컬 캐시 그리고 서로 다른 답변이 대화의 서로 다른 방향을 처리할 수 있다고 가정합니다. 이는 다음에서 상태를 재구성합니다. 사전 ResponsesAgentRequest 각각에 predict 그리고 국가를 설계합니다 스레드로부터 안전한.
내부 상태를 초기화합니다. predict 단일 복제본이 여러 사용자의 대화를 처리할 수 있으므로 에이전트 생성자에는 없습니다. 이렇게 하면 정보 유출 처리량이 많은 환경에서는 동시성 충돌이 발생합니다.
에이전트의 동작을 매개변수화합니다. ModelConfig (사전 또는 YAML). 예를 들어 다음을 정의합니다. model_serving_endpointLLM 매개변수 및 프롬프트 템플릿; 해당 구성을 개발에 로드하고 프로덕션으로 승격 코드를 건드리지 않고.
에이전트 서버에 이벤트 루프나 비동기 프레임을 도입하지 마십시오. Databricks가 관리합니다. 내부 경쟁동기 코드나 콜백을 사용하세요. 그렇지 않으면 다음과 같은 오류가 발생할 수 있습니다. «이 이벤트 루프는 이미 실행 중입니다» 그리고 불규칙한 행동.
Agent Bricks: 가치 가속화를 위한 "코드 없음" 자동화
2025년에 출시된 Agent Bricks는 에이전트 생성 워크플로를 제공합니다. 코드를 작성할 필요 없이자연어로 작업을 입력하고 데이터를 연결하면 플랫폼이 모델을 선택하고 생성합니다. 합성 데이터, 거버넌스를 통해 생산 준비 에이전트를 제공할 때까지 평가하고 조정합니다. Unity 카탈로그.
그 장점 중에는 엔드투엔드 자동화Databricks의 확장성 - 엔드포인트를 통해 3일 후 다시 0으로 돌아옴 비활성, Lakehouse 및 준비된 에이전트 유형(정보 추출)에 대한 사용 및 비용 분석 맞춤형 LLM, 복잡한 오케스트레이션을 위한 지식 지원자 및 다중 에이전트 감독자).
오늘날에는 제한 사항으로 인해 생성된 코드는 다운로드할 수 없습니다.이로 인해 심층적인 사용자 정의가 제한되며, 템플릿 카탈로그는 이미 Lakehouse 및 Unity Catalog와 통합된 조직을 대상으로 합니다. 일부 사용자는 특정 기능을 사용하지 못할 수 있습니다. 더 세분성 비용 측정 항목에서.
예: 다중 에이전트 및 상태 저장 에이전트
공식 문서에서 다음을 포함하는 노트북을 찾을 수 있습니다. OpenAI (Databricks 및 OpenAI에서 호스팅되는 모델을 사용한 간단한 채팅 및 도구 통화) 랭그래프 (도구 호출) 및 DSPy (교대 근무 중인 도구에 전화). 이것은 확장하기 좋은 기반입니다. 맞춤 도구 및 품질 평가.
여러 전문가를 조율하려면 다음을 조립할 수 있습니다. sistemas Genie와 같은 도구를 사용하여 협력합니다. 대화형 메모리에 관심이 있다면 상태 저장 에이전트에 대한 지원이 있습니다. 체크 포인트 그리고 채팅 스레드를 통한 지속성.
공식 문서에서 다음을 포함하는 노트북을 찾을 수 있습니다. OpenAI (Databricks 및 OpenAI에서 호스팅되는 모델을 사용한 간단한 채팅 및 도구 통화) 랭그래프 (도구 호출) 및 DSPy (교대 근무 중인 도구에 전화). 이것은 확장하기 좋은 기반입니다. 맞춤 도구 및 품질 평가.
Databricks 앱: React를 사용한 UI 및 FastAPI 백엔드
라스 Databricks Apps 외부 인프라를 구축하지 않고도 풍부한 인터페이스를 제공할 수 있는 강력한 플랫폼을 제공하며, Databricks SQL과 기본적으로 통합됩니다. Unity 카탈로그모델 제공, 작업 및 상속 플랫폼 보안 및 규정 준수 제어.
매우 실용적인 패턴은 프런트엔드를 만드는 것입니다. 반응 (스트리밍 지원, 메시지 렌더링, 마크다운을 사용한 UX) 및 백엔드 FastAPI 에이전트 엔드포인트로의 브리지 역할을 합니다. 백엔드는 사용자 요청을 다음으로 라우팅합니다. 모델링 서비스 그리고 구조화된 응답을 클라이언트에게 반환합니다.
FastAPI에서는 하위 애플리케이션의 어셈블리 순서가 중요합니다. app.mount("/api", api_app) API 경로를 지시합니다(예: /api/chat) 그리고 app.mount("/", ui_app) 루트 디렉토리에 있는 React 빌드의 정적 파일을 제공합니다. 이 스키마는 다음을 유지합니다. 경로의 명확성 UI를 엔드포인트로부터 분리합니다.
환경 변수 구성(예: SERVING_ENDPOINT_NAME 또는 Unity 카탈로그의 에이전트 모델의 FQN)을 Databricks의 앱 정의에서 가져옵니다. 프런트엔드를 컴파일합니다(npm run build), 파일을 동기화하고 종속성을 선언합니다(requirements.txt)로 시작합니다 구니콘 + 유비콘 ASGI의 근로자들.
실제 사례: 제조 작업을 위한 챗봇
MOM(제조 운영 관리) 시나리오에서 Databricks에 대한 챗봇은 생산 관리자의 분석에 도움을 줄 수 있습니다. 병목재고 추적 및 보고서 생성. 해당 기능은 다음과 같습니다. Unity 카탈로그의 도구 (SQL 또는 Python을 통해) 에이전트가 컨텍스트에 따라 이를 호출합니다.
예: 함수 identify_bottleneck_station Databricks SQL에서 쿼리를 실행하여 가장 많은 지연을 유발하는 단계를 감지합니다. check_inventory_levels실시간 재고를 반환합니다. 에이전트는 또한 이메일을 보내다, 보고서를 작성하고 감정 분석을 수행하며, 이 모든 작업은 도구 호출을 통해 조율됩니다.
모델 제공 엔드포인트로 배포하면 다음과 같이 작동합니다. 백엔드 표준. React 앱은 해당 엔드포인트를 사용하여 세련된 사용자 경험과 지원을 통해 실시간 응답을 표시합니다. 토큰 스트리밍 ResponsesAgent에서 이 기능을 활성화하면 됩니다.
ChatCompletions에서 마이그레이션 및 호환성
레거시 에이전트가 API를 사용하는 경우 채팅 완료 OpenAI에서 마이그레이션할 수 있습니다. 응답 에이전트 수신/발신 메시지를 번역하고 선택적으로 스트리밍 델타를 매핑하는 컨테이너가 있습니다. 응답 에이전트 스트림 이벤트원격 측정을 현대화하는 방법은 다음과 같습니다. 관찰 가능성 핵심 논리를 다시 쓰지 않고도.
배포를 나열하고 관리하기 위해 Agent API를 사용하면 뚜렷한 기존 데이터, 특정 배포(이름 및 버전별)를 얻습니다. 제거 더 이상 필요하지 않은 엔드포인트입니다. 외부 리소스 자격 증명을 관리하는 것을 잊지 마세요. 환경 변수 그리고 비밀.
Databricks는 아이디어 구상부터 완전한 경로를 제공합니다. AI 놀이터 또는 코드 개발(Mosaic AI, MLflow, LangGraph, DSPy)을 통한 Agent Bricks를 통한 자동화, 패키징, 등록까지 Unity 카탈로그배포 배포() 및 생산 모니터링. 다음과 같은 관행을 통해 올바른 모델 서명분산 환경에서 안전한 상태를 유지하고 매개변수화된 구성을 사용하면 플랫폼의 웹 애플리케이션에 통합할 수 있는 안정적이고 관리되는 에이전트를 제공할 수 있습니다.
목차
- Databricks에서 에이전트를 생성하기 위한 옵션
- 모델 서명 및 플랫폼 기능과의 호환성
- 간단한 튜토리얼: Mosaic AI 에이전트 프레임워크를 사용한 첫 번째 에이전트
- MLflow와 함께 패키징되어 Model Serving에 배포됨
- ResponsesAgent: 프로덕션 에이전트를 위한 최신 인터페이스
- 복구 시스템, 맞춤형 입력 및 추적성
- deploy(), 요구 사항 및 자동화된 작업을 사용한 배포
- 상태, 구성 및 실행 패턴에 대한 모범 사례
- Agent Bricks: 가치 가속화를 위한 "코드 없음" 자동화
- 예: 다중 에이전트 및 상태 저장 에이전트
- Databricks 앱: React를 사용한 UI 및 FastAPI 백엔드
- 실제 사례: 제조 작업을 위한 챗봇
- ChatCompletions에서 마이그레이션 및 호환성
