[AI] Gemini 앱의 새로운 학습 도구로 더 효과적으로 학습하기

📌 지원되는 버전 : Business Starter 이상 학습 경험을 보다 역동적이고 효과적으로 만들기 위해 Gemini 앱에 여러 가지 새로운 기능이 추가되었습니다. 이 도구들은 복잡한 주제를 더 깊이 이해하고, 시험을 보다 효율적으로 준비하며, 교육 콘텐츠와 새로운 방식으로 상호작용할 수 있도록 설계되었습니다. 이제 Gemini 앱을 사용해 다음과 같은 작업을 수행할 수 있습니다. 가이드 학습 : 답을 바로…

[Drive] Google Forms에서 Gemini에게 새로운 질문을 제안하도록 요청

📌 지원되는 버전 : Business Standard 이상, Enterprise Standard 이상 Google Forms에서 Gemini를 사용하여 양식 응답을 요약 하고 빠르게 새 양식을 만든다는 최근 발표에 이어, 시간을 절약하는 데 도움이 되는 AI 기반 기능이 추가되었습니다. 오늘부터 Gemini는 기존 양식 콘텐츠를 활용해 새로운 질문 유형, 텍스트 및 답변 옵션을 제안할 수 있습니다. 이 업데이트는 사용자가 상황에 맞는 아이디어를 활용해…

[Meet] Google Meet에서 근접 감지를 활용한 회의실 자동 체크인 기능

📌 지원되는 버전 : Google Meet 하드웨어 기기를 사용하는 모든 Google Workspace 회의실 내 노트북에서 컴패니언 모드로 회의에 참여하는 사용자를 위해, 초음파 근접 감지를 통한 자동 회의실 체크인 기능이 도입되었습니다. 자동 체크인은 회의 시작 전 화면에서 노트북의 마이크를 사용해 회의실 하드웨어에서 송출되는 초음파 신호를 감지하는 방식으로 이루어지며, 이로써 체크인 과정을 간소화하고 불필요한 단계를 제거할 수…

[Meet] Google Meet 하드웨어 기기 재부팅, 알림 및 로그 설정에 대한 향후 변경 사항

📌 지원되는 버전 : Google Meet 하드웨어 기기를 사용하는 모든 Google Workspace 앞으로 몇 주 안에 Google Meet 하드웨어 관리 콘솔의 여러 설정에 새로운 기능과 더 나은 관리자 환경을 제공하기 위한 변경 사항이 적용될 예정입니다. 이러한 변경 사항은 다음 설정에 영향을 미칩니다. 알림 구성 시간대 로그 업로드 설정 및 기기 상태 보고 예약된 재부팅 새로운…

[kakao monthly newsletter_8월호] Compute Engine & Storage

AI workloads with the Google Cloud Managed Lustre HPC 및 AI/ML 워크로드를 위해 설계된 완전 관리형 병렬 파일시스템 서비스   주요 특징 초당 최대 1TB/sec 처리량과 1msec 미만의 매우 낮은 지연시간 수백만 IOPS를 지원하며 용량에 비례하여 성능이 확장되고 유연하게 Scale up/down을 지원 최소 18TiB에서 8PiB 이상 Google Cloud가 Lustre 파일 시스템의 배포, 구성, 모니터링, 패치,…

[kakao monthly newsletter_8월호] VPC & Networking

Networking for AI Data Centers The Networking 101 Google Cloud sheet에 ‘networking for AI Data Centers’가 업데이트   주요 업데이트 Remote Direct Memory Access(RDMA): OS나 CPU의 개입 없이 장치(Computer)간의 메모리에서 메모리로 데이터를 직접 전송하는 기술 인피니밴드(InfiniBand): RDMA 및 클러스터 통신을 위한 고속, 저지연 패브릭 RDMA over Converged Ethernet(RoCE): 이더넷 네트워크를 통해 RDMA 데이터 전송을 가능하게…

[kakao monthly newsletter_8월] BigQuery & Database

BigQuery with the TimesFM foundation model Google Research에서 개발한 최신 시계열 예측 모델인 TimeFM은 4,000억 개에 달하는 방대한 실제 시점 데이터셋을 기반으로 사전 학습된 파운데이션 모델 주요 특징 제로샷(Zero-shot) 예측 : 학습되지 않은 데이터셋에서도 추가적인 훈련 없이 정확한 예측 수행 BigQuery ML 통합 : BigQuery의 기본 ML 모델로, 5억 개의 매개변수를 가지고 있으며 BigQuery 인프라에서…

[kakao monthly newsletter_8월호] Kubernetes (GKE)

GKE Inference Gateway을 통한 고성능 LLM 서빙 구현 GKE와 GKE Inference Gateway를 사용하여 고성능 LLM 서빙을 구현하고 AI관련 메트릭을 인식하는 스마트 라우팅을 통해 기존 로드밸런싱의 한계를 극복 합니다.   GKE Inference Gateway for LLM Serving 특장점 지능형 로드 밸런싱: KV-Cache 활용률과 같은 GPU 관련 메트릭을 포함한 백엔드 용량을 파악하여 요청을 최적화하여 라우팅 AI 인식 자원…