구글 클라우드의 다양한 데이터 서비스는 에이전트 시대에 어떻게 변할까?

구글 클라우드의 다양한 데이터 서비스는 에이전트 시대에 어떻게 변할까?   AI 에이전트 분야의 발전 속도를 보면 입이 떡 벌어질 정도입니다. 작년만 해도 뭔가 실험적이라는 느낌이었다면? 올 해는 늘 옆에서 함께 하는 동료 수준으로 일취월장한 느낌입니다. 실제로 올해 열린 구글 클라우드 넥스트 ‘25의 데이터 관련 세션을 보면 클라우드 활용에 있어 에이전트가 앞으로 어떤 활약상을 펼칠지 잘…

데이터 가공과 분석도 이제는 에이전트에 맡기는 시대?

구글 클라우드 넥스트 ‘25의 관통하는 키워드는 ‘AI 에이전트’였습니다. 기조 연설부터 분야별 전문 세션까지 기승전은 달라도 결론은 AI 에이전트였다 해도 과언이 아닐 것입니다. 이번 포스팅에서는 데이터 분야에서 앞으로 큰 활약을 할 데이터 에이전트에 대해 좀 알아볼까 합니다.    전문 영역이 다른 데이터 에이전트    데이터 가공, 분석 같은 업무 처리에 있어 데이터 에이전트는 각각 맡은 분야가…

AI Agent와 Agentic AI가 공존하는 시대

AI 기술이 발전하면서, 기업들은 AI를 단순한 도구를 넘어 자율적인 의사결정 파트너로 활용하려는 움직임을 보이고 있습니다. 이런 트렌드를 대표하는 것이 AI 에이전트입니다. 그렇다면 모든 길은 AI 에이전트로 향하고 있을까요? 그렇지 않습니다.    AI 에이전트 흐름의 다른 한 쪽에는 ‘Agentic AI’ 개념을 적용한 에이전트 워크플로우가 주목받고 있습니다. Aagentic AI 개념을 적용한 에이전트 워크플우는 간단히 설명하자면  목표 달성을…

Gemini 2.0과 Gen AI SDK로 도전하는 멀티 모달 AI 애플리케이션 개발

최근 구글 클라우드에서 새롭게 공개된 Gemini 2.0 모델과 Gen AI SDK는 AI 개발 분야에 혁신적인 변화를 가져오고 있습니다. 이번 포스팅에서는 Gemini 2.0과 Gen AI SDK의 활용법과 AI Studio와 Vertex AI의 차이점, 그리고 우리 회사에 맞는 AI 애플리케이션 개발에 적합한 환경을 고르는 기준을 살펴보겠습니다.    결론부터 말하자면 기업의 경우 MVP(Minimum Viable Product, 최소 기능 제품) 수준의…

Google Cloud Dynamic Workload Scheduler를 활용한 AI 워크로드 관리

Google Cloud Dynamic Workload Scheduler를 활용한 AI 워크로드 관리   오늘날 AI 모델의 훈련과 추론에는 대규모의 컴퓨팅 자원이 필요하며, 특히 TPU나 GPU 같은 가속기 자원을 어떻게 효율적으로 활용하느냐가 매우 중요한 문제로 부상했습니다. 이 글에서는 AI 인프라 운영자와 AI 개발자·데이터 과학자가 Google Cloud의 Dynamic Workload Scheduler(이하 DWS)를 통해 AI 워크로드를 효율적으로 관리할 수 있는 방법을 살펴보겠습니다.…

검색 품질 UP! Vertex AI 임베딩 튜닝

검색 품질 UP! Vertex AI 임베딩 튜닝   생성형 AI 모델을 기반으로 한 앱이나 서비스에 대한 사용자 눈 높이가 빠르게 높아지고 있습니다. 빅테크 기업의 상용 서비스를 이용해 본 사용자는 회사에서 제공하는 서비스에도 같은 수준의 사용자 경험을 기대합니다. 그러다 서비스를 구현하는 입장에서 보면 사실 이게 쉽지 않은 일입니다. 생성형 AI 앱의 검색, 답변, 추천 기능을 향상시켜…

LLM 모델을 클라우드에서 손쉽게 운영하는 방법: TGI와 Google Cloud의 만남

Google Cloud는 Hugging Face에서 제공하는 다양한 AI 모델들을 Cloud Run과 GKE라는 서비스를 통해 간편하게 사용할 수 있도록 지원합니다. 관련해 이번 포스팅에서는 Hugging Face의 TGI(Text Generation Inference)를 활용하는 방법을 알아보려 합니다.  *Hugging Face는 인공지능, 특히 자연어 처리(NLP) 분야에서 가장 유명한 오픈 소스 커뮤니티이자 플랫폼입니다. 마치 GitHub이 개발자들에게 코드를 공유하고 협업하는 공간이라면, Hugging Face는 AI 모델을 공유하고…

LLM & SLM 시대에 맞게 진화를 거듭하고 있는 GKE

요즘 AI 전환에 대한 관심이 높아지면서 거대 언어 모델(Large Language Model, 이하 LLM)과 특정 분야나 작업에 최적화된 소형 언어 모델(Small Language Model, 이하 SLM) 관련 프로젝트를 준비하거나 추진 중인 조직이 많습니다. 사실상 AI 프로젝트를 추진하는 데 필요한 GPU 서버로 구성한 인프라와 MLOps 플랫폼 그리고 이를 운영할 인력을 잘 갖춘 곳은 그리 많지 않습니다. 그렇다고 해서…

“AI 시대, 레거시 시스템을 Cloud Native AI 서비스로!” 세미나

OverviewAI 시대, 새로운 혁신의 길로 함께 나아가시겠습니까? 개발자와 DevOps가 협력하여 만들어가는 Cloud Native AI 서비스! 레거시 시스템을 현대화하고, 비즈니스 경쟁력을 높이기 위한 컨테이너 기반 전환의 중요성을 알고 계십니까? AI 시스템의 성공적인 실행을 위해 컨테이너 플랫폼은 이제 필수입니다. 구글 클라우드의 컨테이너 플랫폼(Cloud Run, GKE)을 통해, 귀사의 비즈니스를 한 단계 도약 시킬 수 있는 기회를 제안 드립니다…

[AI] gemini.google.com에 파일 업로드 가능

[8월 27일자 Google Workspace 업데이트 소식] 지원되는 버전 : Gemini Business, Enterprise 사용 가능 오늘부터 Gemini Business, Enterprise 라이선스가 있는 Google Workspace 사용자는 이제 Gemini(gemini.google.com)에 Google Drive 또는 로컬 PC에서 다양한 파일을 업로드할 수 있습니다.  TXT, DOC, DOCX, PDF, RTF, DOT, DOTX, HWP, HWPX 및 Google Docs와 같은  문서 및 텍스트 파일 XLS, XLSX, CSV, TSV…