PR CENTER

PR센터

홈>PR센터>보도자료

보도자료

HPC Ignites: 데이터 중심적 사고방식이 기업 AI 인프라를 혁신하는 방식

2025.10.29

HPC Ignites: 데이터 중심적 사고방식이 기업 AI 인프라를 혁신하는 방식

AI 모델의 규모가 급속도로 확장되고 데이터 생성량이 전례 없는 시대에 기업 IT 인프라는 심각한 과제에 직면해 있습니다. 단일 노드 컴퓨팅 성능에 중점을 둔 기존의 중앙 집중식 아키텍처는 클라우드, 엣지, 엔드포인트에서 발생하는 방대하고 다양한 데이터를 처리하는 데 어려움을 겪고 있습니다. 결과적으로 데이터의 역할이 재정의되고 있습니다. 데이터는 더 이상 단순한 컴퓨팅 보조 도구가 아니라 의사 결정, 혁신, 운영 효율성을 주도하는 핵심 자산입니다. 인프라를 적절하게 업그레이드하지 못하는 기업은 데이터 처리 병목 현상, 성능 저하, 에너지 소비 증가와 같은 문제에 직면하여 총소유비용(TCO)이 증가하게 됩니다. 이러한 전략적 전환점에 직면한 "컴퓨팅 중심"에서 "데이터 중심"으로의 전환은 단순한 기술적 업그레이드가 아니라, 새로운 "AI" 세대의 기업 혁신을 위한 중요한 전략입니다. 2025년 HPC 컨퍼런스 SC25는 "HPC Ignites"라는 주제를 내걸고 "데이터 집약적 과학"을 강조하며, 이러한 데이터 중심의 변화를 명확히 반영하고 있습니다. HPC는 더 이상 과학과 연구에 국한되지 않고 기업의 핵심으로 빠르게 침투하고 있으며 AI 경쟁에서 결정적인 힘이 되고 있습니다.       색인 연구 도구에서 비즈니스 핵심으로: HPC 애플리케이션의 진화하는 상업적 가치 데이터 폭증에 대처하기: 기존 아키텍처의 병목 현상과 과제 기업 전략 전환: "컴퓨팅 중심"에서 "데이터 중심"으로 GIGABYTE: 데이터 중심 아키텍처 활성화   연구 도구에서 비즈니스 핵심으로: HPC 애플리케이션의 진화하는 상업적 가치 고성능 컴퓨팅(HPC)은  전통적으로 기상 모델링, 제약 R&D, 에너지 탐사와 같은 과학 분야에서 활용되어 왔습니다. HPC의 주요 임무는 매우 강력한 컴퓨팅 리소스를 사용하여 고강도 중앙 집중식 시뮬레이션 및 분석을 실행하는 것이었습니다. 그러나 AI, 엣지 컴퓨팅, 스마트 제조, 자율주행차의 등장으로 실시간 의사 결정, 개인화된 경험, 그리고 지능형 운영에 대한 수요가 급증했습니다. HPC의 역할은 "연구 지원"에서 "비즈니스 핵심"으로 빠르게 진화하고 있습니다.이러한 변화의 촉매제는 데이터 집약적 애플리케이션의 등장입니다. 이러한 애플리케이션은 방대하고 다양한 데이터 세트를 즉시 수집, 처리 및 분석해야 합니다. 예를 들면 다음과 같습니다. 금융: 수백 테라바이트의 거래 데이터를 실시간으로 분석하여 사기를 감지합니다. 제조: 센서 데이터를 활용하여 예측적 유지 관리 및 품질 모니터링을 수행합니다. 헬스케어: 고해상도 이미지로 AI 모델을 훈련하여 임상 진단을 가속화합니다. 이러한 애플리케이션의 공통점은 단순히 기존의 컴퓨팅 성능을 높이는 것만으로는 다양하고 분산된 데이터를 감당하기에 충분하지 않다는 것입니다. 다시 말해, 기업 경쟁력은 이제 원시 컴퓨팅보다는 원활한 데이터 흐름과 높은 처리 효율성을 확보하는 데 더욱 중점을 두고 있습니다.시장 조사 결과도 이러한 추세를 뒷받침합니다. Hyperion Research는 2025년 HPC 매출의 약 3분의 1이 데이터 중심 및 AI 애플리케이션에서 발생할 것이라고 예측합니다. InsideHPC는 HPC와 AI의 통합 시장이 2028년까지 1,000억 달러를 돌파할 것으로 예측합니다. 이러한 결과는 데이터 중심 아키텍처에 대한 기업의 투자 증가를 보여줍니다. HPC는 순수 컴퓨팅 플랫폼에서 비즈니스 운영을 지원하는 "지능형 인프라"로 전환되었으며, 이는 AI 네이티브 시대로의 전환에 있어 중요한 전환점을 예고하고 있습니다.           데이터 폭증에 대처하기: 기존 아키텍처의 병목 현상과 과제 HPC 열풍은 기업 IT 인프라에 파괴적인 과제를 야기하고 있습니다. Exploding Topics에 따르면, 2025년까지 전 세계 데이터 양은 181ZB를 초과할 것으로 예상되며, 이는 기존 데이터 센터의 용량을 훨씬 뛰어넘는 수치입니다. 컴퓨팅 중심의 중앙 집중식 아키텍처는 세 가지 주요 과제에 직면해 있습니다. 대역폭 병목 현상: IoT 및 에지 장치에서 생성된 방대한 데이터는 중앙 노드를 통과해야 하므로 네트워크 혼잡이 발생하고 처리량이 제한됩니다. 지연 위험: 밀리초 수준의 지연은 고빈도 거래, 자율주행차 의사 결정, 의료 영상 진단과 같은 애플리케이션에 영향을 미칠 수 있습니다. 제한된 확장성: 데이터 센터를 확장하는 데는 많은 비용과 시간이 소요되므로 급변하는 작업 부하나 갑작스러운 수요 급증에 적응하기 어렵습니다. 이러한 과제에 직면한 기존 모델은 더 이상 기업의 경쟁 요구를 충족할 수 없습니다. 따라서 기업은 AI 경쟁에서 우위를 유지하기 위해 "데이터 중심 분산 아키텍처"를 적극적으로 도입해야 합니다.           기업 전략 전환: "컴퓨팅 중심"에서 "데이터 중심"으로 데이터 중심 접근 방식은 단순한 하드웨어 업그레이드가 아니라 아키텍처, 관리, 전략 전반에 걸친 포괄적인 혁신입니다. 핵심 원칙은 간단합니다. 컴퓨팅을 데이터에 더욱 밀착시켜 고효율, 저지연성, 복원력을 갖춘 AI 운영을 지원하는 것입니다.주요 전략은 다음과 같습니다. 데이터 소스에 대한 근접성 계산: 데이터 소스 근처에 컴퓨팅 작업을 배포하여 지연 시간과 대역폭 사용량을 줄이고 실시간 분석 및 의사 결정을 지원합니다. 분산형 배포 및  이기종 컴퓨팅  : 노드를 수평적으로 확장하고 이기종 리소스(CPU, GPU, DPU)를 통합하여 작업 부하에 따라 최적의 컴퓨팅을 동적으로 할당하여 성능과 에너지 효율성을 향상시킵니다. 지능형 리소스 오케스트레이션: Kubernetes 및 Service Mesh와 같은 AI 기반 부하 관리 및 컨테이너 오케스트레이션 기술을 활용하여 노드 간 작업을 관리하고 안정성과 보안을 보장합니다. 클라우드-엣지 협업: 엣지 노드는 실시간 데이터 감지 및 초기 처리를 처리하는 반면, 클라우드는 복잡한 AI 모델 교육 및 의사 결정을 관리하여 종단 간 협업 아키텍처를 구축합니다. 현대화된 데이터 센터 설계: 모듈  식 컨테이너 설계는 구축 주기를 효과적으로 단축할 수 있습니다. 액체 냉각 시스템  과 결합된  이러한 설계는 고전력 밀도 데이터 센터의 안정적인 운영을 보장하고 TCO를 크게 절감합니다. 장애 허용 및 중복성: 다중 데이터 백업, 중복 노드 구성, 장애 조치 메커니즘을 통한 자동 오류 감지 기능을 통해 복원력과 비즈니스 연속성이 보장됩니다. IDC는 글로벌 엣지 컴퓨팅 시장이 2028년까지 3,800억 달러에 이를 것으로 전망하며, 클라우드-엣지 협업이 주류로 자리 잡고 있음을 시사합니다. 전략적 관점에서 데이터 중심 아키텍처는 컴퓨팅 효율성을 향상시킬 뿐만 아니라 비용 관리, 에너지 관리, 비즈니스 민첩성을 강화하여 AI 시대 경쟁력의 기반을 마련합니다.           GIGABYTE: 데이터 중심 아키텍처 활성화 HPC 및 AI 솔루션의 선도적 공급업체인 GIGABYTE는 포괄적인 솔루션 제품군을 통해 기업이 이 중요한 IT 혁신을 가속화할 수 있도록 지원합니다. 고밀도 서버  : GIGABYTE 서버는 여러 노드에 작업 부하를 분산하도록 설계되어 컴퓨팅을 데이터 소스에 더 가깝게 배치하여 대기 시간을 줄이고, 에너지 사용을 최적화하고, 성능과 TCO의 균형을 맞춥니다. GIGAPOD – 모듈형 컴퓨팅 클러스터 : 혁신적인 모듈형 설계를 특징으로 하는 GIGAPOD는 신속한 구축과 유연한 확장을 지원합니다. CXL 메모리 풀링 ,  PCIe 5.0 상호 연결, 효율적인 수냉식 냉각과  같은 차세대 기술을 통합하여   고전력 밀도 서버의 안정적인 작동을 보장합니다. GPM – GIGABYTE POD Manager  : 노드 간 협업과 동적 리소스 오케스트레이션을 용이하게 하여 워크로드 균형, 리소스 활용도, 시스템 유연성을 최적화합니다. 원스톱 솔루션  : GIGABYTE는 클라우드에서 엣지까지 엔드투엔드 지원을 제공하고 전략적 파트너 생태계를 지속적으로 확장하여 전체적인 HPC 및 AI 솔루션을 제공합니다. 이러한 제품과 솔루션은 SC25 "HPC Ignites" 테마를 구현합니다. HPC를 데이터 중심 혁신의 엔진으로 자리매김하고 HPC와 AI의 융합 속에서 기업이 새로운 기회를 포착할 수 있도록 지원합니다.자세히 알아보기:《기술 가이드: GIGAPOD가 원스톱 서비스를 제공하여 포괄적인 AI 혁명을 가속화하는 방법》《DCIM x AIOps: AI 소프트웨어를 재편하는 차세대 빅 트렌드》           전망: 데이터로부터 가치 창출 데이터 집약적인 애플리케이션과 AI의 부상은 기업 IT 아키텍처를 근본적으로 변화시키고 있습니다. 컴퓨팅 중심에서 데이터 중심 HPC로의 전환은 단순한 기술적 반복을 넘어, 기업이 데이터 폭증을 수동적으로 관리하는 방식에서 벗어나 데이터에서 적극적으로 가치를 창출하는 방식으로 전환하는 전략적 재정의입니다.이러한 새로운 사고방식을 받아들이고 AI 기반 IT 인프라를 구축하여 새로운 산업 혁신 시대를 열 준비가 되셨습니까?

상세보기

AI 공장의 데이터 혁명: 고속 네트워킹을 더욱 발전시키다

2025.09.12

AI 공장의 데이터 혁명: 고속 네트워킹을 더욱 발전시키다

생성적 AI는 기존 데이터 센터를 차세대 AI 팩토리, 즉 지능형 워크로드를 위해 특별히 구축된 대규모 고성능 인프라로의 진화를 가속화하고 있습니다. 첫 번째 기사 《준비되셨나요? AI 팩토리 시대가 도래했습니다! AI 팩토리 시대》에서는 기가바이트가 AI 인프라를 재설계하고 컴퓨팅 성능, 냉각 효율 및 시스템 관리를 향상시키는 총체적인 접근 방식으로 AI 인프라를 어떻게 재정의하고 있는지 소개했습니다. 두 번째 기사 《AI 팩토리의 혁신: CXL 메모리 풀링의 부상》에서는 AI 팩토리가 강력한 컴퓨팅 및 메모리 외에도 안정적이고 초고속 데이터 전송을 요구한다는 점을 강조했습니다. 세 번째 기사에서는 AI 인프라의 핵심인 고속 네트워킹에 중점을 둡니다. 단일 서버 상호 연결부터 본격적인 데이터 센터 토폴로지에 이르기까지, 최첨단 전송 기술이 어떻게 대규모 GPU 클러스터를 지원하고, 원활한 확장성을 실현하며, 미래의 AI 워크로드를 지원하는지 살펴보겠습니다.       색인 고속 연결: AI 인프라의 생명선 서버 상호 연결에서 네트워크 토폴로지까지: AI 데이터 흐름을 개선하세요 GIGABYTE의 통합 솔루션: 엔드투엔드 AI 인프라 서비스 제공 성능과 지속 가능성을 통해 AI 인프라의 미래를 형성합니다   고속 전송: AI 인프라의 생명선 AI 인프라가 발전함에 따라  데이터 전송의 중요성이 급격히 커졌고, 컴퓨팅 워크로드는 CPU에서 GPU로 이동하고 있습니다. 대규모 AI 모델을 학습하려면 테라바이트에서 페타바이트에 달하는 데이터를 처리하기 위해 수천 개의 GPU가 필요한 경우가 많으며, 이는 단일 서버의 용량을 훨씬 초과합니다. 따라서 대규모 노드 간 협업이 필수적이며, 높은 대역폭과 낮은 지연 시간의 네트워킹을 구축하는 것이 중요한 요구 사항이 됩니다. AI 학습단계 에서는   여러 GPU가 모델 매개변수의 일관성을 유지하기 위해 데이터를 자주 동기화하고 교환해야 합니다. 단일 노드에서 지연이 발생하면 전반적인 효율성이 저하되거나 GPU 리소스가 유휴 상태가 될 수 있습니다. 따라서 안정적이고 빠른 동서 데이터 전송이 필수적입니다.  추론 단계에서는 데이터 흐름이 데이터 센터 와 외부 사용자  간을 이동하는 남북 트래픽으로 전환됩니다  . 이 단계에서는 실시간 응답성과 서비스 안정성이 최우선이며, 모든 요청이 신속하고 안정적으로 처리되도록 보장합니다.      서버 상호 연결에서 네트워크 토폴로지까지: AI 데이터 흐름을 개선하세요 AI 팩토리가 확장됨에 따라 효율적이고 고도로 동기화되며 확장 가능한 인프라를 구축하려면 단순한 컴퓨팅 성능 이상의 것이 필요합니다. 다양한 트래픽 패턴과 애플리케이션 단계에 맞춰 설계된 고급 고속 상호 연결과 최적화된 네트워크 토폴로지가 필요합니다. 이러한 진화를 이해하기 위해 내부 서버 연결, 노드 간 상호 연결, 데이터 센터 전체 네트워크 아키텍처의 세 가지 계층으로 나누어 살펴보겠습니다.*계층 1. 내부 서버 전송: CPU-GPU 협업 가속화AI 워크로드는 CPU, GPU, 메모리 간의 대량 데이터 교환을 수반합니다. 내부 전송에 지연 시간이나 대역폭 부족이 발생하면 전체 AI 성능이 크게 저하됩니다. 이를 해결하기 위해 업계는 내부 상호 연결을 강화하는 여러 기술을 도입했습니다. - CXL  (Compute Express Link): PCIe Gen5 기반으로 구축된  CXL은 CPU와 GPU, FPGA  와 같은 가속기가  메모리를 공유할 수 있도록 하여 중복 데이터 이동 및 복제를 줄입니다. GIGABYTE 고성능 서버는 PCIe Gen5와 CXL 기술을 활용하여 CPU-GPU 협업을 획기적으로 향상시키고 실시간 추론 및 대규모 분석을 최적화합니다. 추가 자료: 《AI 팩토리 혁신: CXL 메모리 풀링의 등장》 《마이크론 & 기가바이트 CXL 워크로드 데모》 -GPU 상호 연결 기술: GPU 간 통신 효율성을 향상시키기 위해 AMD Infinity Fabric 및 NVIDIA NVLink와 같은 솔루션이 등장했습니다. 이러한 솔루션은 CPU를 거치지 않고도 GPU 간 직접적인 지점 간 통신을 가능하게 하여 지연 시간을 크게 줄이고 대역폭을 향상시킵니다. 기가바이트의  GB200 NVL72 솔루션은  최신 NVIDIA 5세대 NVLink(1.8TB/s GPU 간 대역폭 제공)와 NVLink 스위치를 통합하여 단일 랙에 36개의 NVIDIA Grace™ CPU와 72개의 Blackwell GPU를 연결하여 "하나의 랙 = 하나의 거대한 GPU" 성능을 효과적으로 구현합니다.                                                                                                   기가바이트 GB200 NVL72 솔루션    *레이어 2. 크로스 노드 네트워크 아키텍처: 고속, 저지연 AI 학습 클러스터 구축 AI 모델이 너무 커져서 여러 서버에 분산해야 하는 경우, 노드 간 데이터 교환의 효율성은 전반적인 학습 성능에 중요한 요소가 됩니다. 이를 위해 주류 아키텍처는 이더넷과 InfiniBand, 그리고 핵심 기술인 RDMA(Remote Direct Memory Access) 기술을 활용합니다. RDMA를 사용하면 CPU 개입 없이 한 서버의 메모리에서 다른 서버의 메모리로 직접 데이터를 전송할 수 있습니다. 마치 택배 배달원이 접수대에서 기다리지 않고 바로 수취인에게 배달하는 것과 같습니다. 이를 통해 데이터 전송 속도가 획기적으로 향상되고 지연 시간이 단축됩니다. - 이더넷: 데이터 센터에서 가장 널리 채택된 표준인 이더넷은 성숙도와 상호 운용성으로 유명합니다. AI 워크로드의 고속, 저지연 요구 사항을 충족하기 위해 이더넷은 RoCE(RDMA over Converged Ethernet) 프로토콜을 활용하여 RDMA를 활성화하여 서버 간 데이터 전송 시 CPU를 우회하여 지연 시간을 줄이고 효율성을 향상시킬 수 있습니다. 또한 과부하 시 패킷 손실을 최소화하여 학습 중단 및 리소스 낭비를 방지합니다. 오늘날의 이더넷 표준은 최대 400Gbps를 지원하며, 향후 800Gbps까지 확장될 예정이므로 이더넷은 차세대 AI 인프라의 핵심 구성 요소로 자리매김할 것입니다.  기가바이트의 인텔® 가우디® 3 플랫폼 서버 솔루션은  개방형 이더넷 아키텍처를 채택하여 AI 구축을 위한 비용 효율적이고 확장 가능한 솔루션을 제공합니다. - InfiniBand: 고성능 컴퓨팅( HPC )용으로 특별히 설계된 InfiniBand는 초저지연 시간과 매우 높은 대역폭을 제공하여 대규모 GPU 동기화 및 대규모 AI 모델 학습에 이상적입니다. 내장된 RDMA 기능을 통해 시스템 부하를 줄이면서 데이터 전송 속도를 높입니다. InfiniBand는 현재 최대 400Gbps까지 지원하며, 업계는 800Gbps 이상으로 발전하고 있어 AI 슈퍼컴퓨터 및 하이퍼스케일 클라우드 데이터 센터의 핵심 기술로서 입지를 굳건히 하고 있습니다.        *3계층. 데이터 센터 네트워크 토폴로지: 기존 3계층을 넘어 팻 트리 설계 도입네트워크 토폴로지는 데이터 센터의 트래픽 맵과 같이 서버 간 데이터 교환 경로를 정의합니다. 이는 AI 학습의 속도와 확장성에 직접적인 영향을 미칩니다. 과거 데이터 센터는 주로 사용자와 서버 간의 통신인 남북 트래픽을 처리했습니다. 이를 지원하기 위해 기존 네트워크 설계는 3계층 아키텍처에 의존했습니다. 서버를 연결하는 액세스 계층(1계층), 트래픽을 집계하는 분배 계층(2계층), 고속 포워딩을 위한 코어 계층(3계층)이 그것입니다. 이 구조는 대부분의 트래픽이 사용자와 애플리케이션 간에 수직으로 흐르는 기존 애플리케이션에는 적합했습니다. 그러나 AI 학습은 모든 것을 변화시킵니다.AI 및 고성능 컴퓨팅(HPC) 환경에서는 수천 대의 서버, 특히 GPU 서버 간에 교환되는 방대한 데이터의 동서 트래픽이 지배적인 패턴입니다. 기존의 3계층 설계에서는 이 트래픽이 코어 계층을 거쳐 위로 이동한 후 다시 아래로 이동하여 다른 서버에 도달해야 합니다. 그 결과, 경로가 길어지고, 단일 혼잡 지점이 발생하며, 코어에 병목 현상이 발생합니다. 이는 고속도로의 모든 차량이 같은 요금소를 통과하도록 강요하는 것과 같아 심각한 지연을 초래하고 전체 프로세스 속도를 저하시킵니다.이러한 한계를 극복하기 위해 최신 AI 및 HPC 데이터 센터는 스파인-리프 아키텍처 기반의 팻트리(Fat-Tree) 토폴로지를 채택하고 있습니다. 팻트리는 단일 고속도로 대신 상호 연결된 경로의 메시를 생성하여 두 서버 간의 동일한 거리 연결을 보장하는 동시에 단일 노드의 혼잡을 방지하기 위해 트래픽을 분산합니다. 이러한 설계는 더 높은 대역폭, 더 낮은 지연 시간, 그리고 더 높은 안정성을 제공하여 AI 학습에 필요한 대규모 데이터 교환에 이상적입니다.     GIGABYTE GIGAPOD: Fat-Tree 토폴로지 기반 AI 컴퓨팅 클러스터 솔루션 GIGAPOD  는 AI 데이터 센터용으로 특별히 설계된 통합 솔루션입니다. 단일 공랭식 구성으로 8+1 랙에 256개의 GPU를 통합할 수 있습니다. GIGAPOD는 기본적으로 논블로킹 팻트리(Fat-Tree) 토폴로지를 채택하여 스파인 앤 리프(Spine-and-Leaf) 개념을 기반으로 랙을 구성하여 대역폭을 극대화하고 트래픽 균형을 유지합니다.                                                                          GIGABYTE GIGAPOD 솔루션 - AI 슈퍼컴퓨팅 클러스터   작동 방식은 다음과 같습니다. GIGAPOD에서는 서버의 각 GPU가 NIC 카드와 페어링되어 서버당 8개의 GPU-NIC 쌍을 생성합니다. 서버의 각 GPU-NIC 쌍은 중간 계층의 각 리프 스위치에 연결됩니다. 다음으로, 리프 스위치와 스파인 스위치가 연결되어 팻 트리를 형성합니다. 이러한 최상위 계층으로의 확장은 서버를 리프 스위치에 연결하는 것과 유사한 개념을 따릅니다. 각 리프 스위치의 포트는 스파인 스위치에 균등하게 분배되어 최상위 계층 네트워크를 형성합니다. 이러한 설계는 높은 대역폭과 낮은 지연 시간의 연결을 가능하게 하여 AI 워크로드에 대한 대규모 수평 확장성을 지원합니다. 가장 큰 모델을 학습할 때에도 클러스터는 효율성과 안정성을 유지합니다. 팻트리 네트워크는 고속도로로 연결되는 모든 경로를 열어 모든 GPU 노드가 최소한의 지연 시간과 최대 처리량으로 상호 연결될 수 있도록 합니다. GIGAPOD는 또한 NVIDIA® NVLink® 및 AMD Infinity Fabric™ 기술을 지원하여 서로 다른 랙에 있는 GPU가 마치 단일 서버 내부에 있는 것처럼 원활하게 통신할 수 있도록 합니다. 이 아키텍처는 AI 학습, 추론 및 대규모 병렬 컴퓨팅을 최고 성능으로 구동하도록 설계되었습니다. 추가 자료: 《  GIGAPOD가 원스톱 서비스를 제공하여 포괄적인 AI 혁명을 가속화하는 방법 》                                                                                         Fat Tree 토폴로지를 사용하는 GIGAPOD의 클러스터 GIGABYTE의 통합 솔루션: 엔드투엔드 AI 인프라 서비스 제공 AI 학습 클러스터의 성능은 더 이상 GPU 수와 컴퓨팅 파워에만 의존하지 않고, GPU 간 및 노드 간 데이터 교환의 효율성에 달려 있습니다. 이를 위해서는 상호 연결된 아키텍처, 네트워크 토폴로지, 통신 프로토콜을 고려하는 전체적인 접근 방식이 필요하며, 이를 통해 고속의 안정적이고 확장 가능한 인프라를 구축해야 합니다. 네트워크 설계는 단순히 스위치와 케이블을 스태킹하는 것을 넘어, 케이블 경로 계획, 스위치 랙 배치, 케이블 길이 최적화, 그리고 냉각 및 전력 시스템과의 완벽한 통합까지 포함합니다.진정한 AI 지원 데이터 센터를 구축하려면 단순한 기술 그 이상이 필요합니다. 계획, 설계, 구축, 구축을 아우르는 엔드 투 엔드 원스톱 서비스가 필요하며, 하드웨어, 소프트웨어, 그리고 기반 인프라 간의 완벽한 조화를 통해 최대 성능을 구현해야 합니다. 기가바이트는 글로벌 고객을 위한 데이터 센터 구축 통합 성공 사례를 바탕으로 전 세계 대규모 AI 데이터 센터를 위한 레벨 12 데이터 센터 서비스를 제공하고 있으며, 포괄적이고 안정적인 AI 인프라 솔루션을 지속적으로 제공하고 있습니다.기가바이트는 확장 가능한 인프라 설계부터 글로벌 기술 지원까지, 전체 라이프사이클 데이터 센터 서비스를 제공합니다. 여기에는 컨설팅, 현장 및 환경 계획, 엔지니어링 및 시공, 그리고 시스템 구축이 포함됩니다. 당사 솔루션은 독점적인 GPM( GIGABYTE POD Manager ) 지능형 관리 플랫폼을 통합하여 인프라 관리 및 AIOps를 간소화하여 완벽하게 통합된 엔드 투 엔드 경험을 제공합니다. 이러한 원스톱 서비스 모델은 구축을 간소화하고, 가치 실현 시간을 단축하며, 기업이 AI 인프라의 미래를 향해 자신 있게 나아갈 수 있도록 지원합니다. 추가 자료: 《데이터 센터 인프라》                                                                                     GIGABYTE 데이터 센터 라이프사이클 솔루션 및 서비스 성능과 지속 가능성을 통해 AI 인프라의 미래를 형성합니다 에너지 소비와 발열 문제가 점점 더 중요해짐에 따라, 기가바이트는 액체 냉각 및 침지 냉각과 같은 고효율 냉각 기술을 구현하여 친환경적이고 지속 가능한 개발을 추진하고 기업의 탄소 중립 목표 달성을 지원합니다. 동시에, 기가바이트는 점점 더 복잡해지는 AI 워크로드를 해결하기 위해  DCIM (데이터센터 인프라 관리)과 AIOps(IT 운영을 위한 AI) 기능을 통합하여  지능형 관리 플랫폼인 기가바이트 POD 매니저를 지속적으로 개선하고 있습니다  . 이러한 기능은 실시간 모니터링, 자동화된 리소스 할당 및 예측 유지 관리를 지원하여 운영 비용을 절감하는 동시에 컴퓨팅 효율성을 더욱 향상시킵니다.  추가 자료: 《DCIM x AIOps: AI 소프트웨어를 재편하는 차세대 빅 트렌드》 기가바이트는 풍부한 실무 경험과 심층적인 기술 전문 지식을 활용하여 고객과 협력하여 장기적인 경쟁력을 갖춘 미래형 AI 인프라를 구축합니다. 에코시스템 파트너와의 협력을 강화하여 혁신적이고 효율적이며 지속 가능한 AI 데이터센터 솔루션을 제공하고, 스마트하고 탄력적인 데이터센터 에코시스템을 구축합니다. 완벽한 하드웨어-소프트웨어 통합을 통해 GIGABYTE는 AI 발전을 가속화하여 더욱 스마트하고 효율적이며 지속 가능한 미래를 위한 길을 열어가고 있습니다. 

상세보기

[GIGABYTE] AI 공장 혁신: CXL 메모리 풀링의 등장

2025.08.12

[GIGABYTE] AI 공장 혁신: CXL 메모리 풀링의 등장

AI 공장을 분주한 고급 주방이라고 상상해 보세요. 각 셰프, 즉 컴퓨팅 구성 요소가 협력하여 정교하고 여러 코스로 구성된 요리(AI 워크로드)를 만들어냅니다. AI 모델이 더욱 복잡해짐에 따라, 예를 들어 4,050억 개의 매개변수를 가진 Meta의 Llama 3.1처럼 이 주방은 엄청난 양의 재료(데이터)를 효율적이고 빠르게 처리해야 합니다. 바로 이 지점에서 CXL(Compute Express Link) 메모리 풀링이 등장합니다. CXL 메모리 풀링은 모든 셰프가 원하는 대로 신선한 재료를 이용할 수 있는 공유 냉장고처럼 작동하며, 옆집 주방(다른 서버)의 셰프도 마찬가지입니다. 이 글에서는 CXL 메모리 풀링이 리소스 최적화, 데이터 이동 가속화, 지속 가능한 성장 지원을 통해 AI 인프라에 어떻게 혁신을 가져오는지 살펴봅니다. 기가바이트는 이 차세대 기술을 활용하여 더욱 스마트하고 효율적인 AI 서버를 구축하고 있습니다.     하드웨어 병목 현상: 메모리가 메뉴를 제한하는 경우 오늘날의 컴퓨팅 아키텍처에서는  CPU ,  GPU , 그리고 가속기가 미슐랭 스타급 팀을 이루며 각자의 분야에 특화되어 있습니다.  AMD(EPYC 9005)  와  Intel(Xeon 6) 의 프로세서와 AMD(Instinct MI300) ,  Intel(Gaudi 3) ,  NVIDIA(Blackwell B200) 의 가속기를  생각해 보세요 . 이들은 현대 데이터의 거장입니다. 하지만 재능만으로는 충분하지 않습니다. 셰프들이 서로 소통하고 재료를 빠르게 공유할 수 없다면, 아무리 날카로운 칼과 뜨거운 그릴이라도 음식을 만들어낼 수 없습니다. NVIDIA NVLink와 AMD Infinity Fabric 같은 기술은 GPU 간의 고속 통신로 역할을 합니다. 하지만 주방 전체는 어떨까요? 바로 이 부분에서 CXL이 협업을 혁신적으로 가능하게 하는 솔루션으로 등장합니다.   AI 팩토리의 메모리 혁명: CXL 메모리 풀링의 등장 AI 시대의 고압 주방에서 메모리는 필수적인 저장고이며, 모든 요리를 완벽하게 만드는 비결은 재료(데이터)에 얼마나 효율적으로 접근하느냐에 달려 있습니다. 전통적으로 각 셰프(프로세서)는 각자의 미니 냉장고(로컬 메모리)에 의존했습니다. 재료를 공유해야 할 때는 수동으로 복사하여 전달해야 했기 때문에 시간과 대역폭이 낭비되었습니다. 이러한 사일로화된 모델은 특히 작업 부하가 변동하거나 일관성이 없을 때 비효율성을 초래했습니다.CXL(Compute Express Link)은 이러한 레시피를 완전히 새롭게 정의합니다.  PCIe  물리 계층을 기반으로 구축된 CXL은 CPU, GPU, 가속기가 공유 메모리 풀에 접근할 수 있도록 하는 개방형 표준 상호 연결을 도입했습니다. 공유 메모리 풀은 필요한 모든 것을 갖춘 중앙 저장고입니다. 이러한 공유 설정을 통해 모든 프로세서와 가속기는 현재 작업 부하 요구에 따라 메모리 리소스에 즉시 액세스할 수 있습니다. 셰프가 자신의 미니 냉장고 용량보다 많은 재료를 필요로 하는 경우, 중앙 저장고의 리소스를 직접 사용할 수 있어 유휴 시간을 줄이고 기존 메모리 전달로 인한 지연 시간을 크게 단축할 수 있습니다.   이것이 문제의 근원을 꿰뚫는 이유를 쉽게 알 수 있을 것입니다. 메모리를 유연하게 할당할 수 없으면 아무리 성능이 뛰어난 프로세서라도 유휴 상태로 남게 됩니다. 이것이 기존 아키텍처의 한계의 핵심입니다. 단편화되고 정적인 스토리지는 생성적 AI의 데이터 소모량을 따라잡을 수 없습니다. 피크 타임에는 이로 인해 병목 현상이 발생하여 일부 프로세서는 데이터를 기다리는 반면 다른 프로세서는 유휴 상태로 남아 궁극적으로 시스템 확장성과 성능에 한계를 초래합니다. CXL은 이러한 메모리 한계를 돌파하고 다음과 같은 특징을 통해 차세대 컴퓨팅의 모든 역량을 발휘합니다. 공유 메모리 풀링:CXL은 분산된 메모리를 통합 풀로 통합합니다. 마치 요리사가 중앙 냉장고에 접근하는 것처럼 CPU, GPU, 가속기가 동일한 리소스 저장소에서 동적으로 데이터를 가져올 수 있습니다. 이를 통해 중복 데이터 전송을 제거할 뿐만 아니라 메모리 사용률을 최대 50%까지 향상시킬 수 있습니다. 이는 초당 테라바이트급 데이터를 소모하는 Llama 3.1 모델 학습과 같은 AI 애플리케이션에 이상적인 시나리오입니다. 이제 주방( 데이터 센터 )은 필요에 따라 메모리를 유연하게 할당하여 효율성을 보장하고 유휴 리소스를 최소화하며 더 저렴한 비용으로 더 원활하게 확장할 수 있습니다. 고속 처리량 및 확장성:CXL 3.0은 최대 128GB/s의 양방향 대역폭을 제공합니다. 이는 마치 주방에서 재료를 빠르게 옮기는 넓은 컨베이어 벨트와 같습니다. 추론, 데이터베이스 워크로드 및 대규모 시뮬레이션에 최적화되어 있습니다. PCIe 6.2와 결합된 CXL 3.1과 같은 향후 버전은 더욱 계층화된 메모리 교환 및 P2P(피어 투 피어) 액세스를 지원하여 지연 시간을 줄이고 실시간 응답성을 향상시킵니다. 이는 특히 엣지에서 매우 중요합니다. 에너지 효율 및 지속 가능성:CXL은 메모리를 중앙 집중화하여 과도한 프로비저닝을 줄이고 불필요한 중복을 제거합니다. 이는 냉장고 온도를 최적화하여 전기 낭비를 방지하는 것과 같습니다. 시뮬레이션 결과, 메모리 전력 소비를 20~30% 절감할 수 있는 것으로 나타났습니다. 최악의 경우를 대비하여 모든 CPU와 GPU에 과도한 부하가 걸리는 대신, CXL은 메모리를 공유하고 사용 중에만 동적으로 전원을 공급할 수 있도록 합니다. 이를 통해 에너지 낭비와 발열량을 줄일 뿐만 아니라 GPU 활용도를 최적화하고 AI 및  HPC  워크로드의 총소유비용(TCO)을 절감합니다. 이는 더욱 친환경적이고 지속 가능한 데이터 센터를 위한 한 걸음입니다. 개방형 표준 및 상호 운용성:CXL은 범용 레시피북 역할을 하여 다양한 공급업체의 구성 요소를 원활하게 통합할 수 있도록 합니다. 이러한 개방성은 혁신을 촉진하고, 더 광범위한 도입을 촉진하며, 데이터 센터 메모리 확장의 확장 한계를 제거합니다. CXL을 사용하면 수백 대의 장치가 동일한 공유 메모리 풀에 액세스하여 조화롭게 작동할 수 있습니다. 실제로 CXL 메모리 풀링은 병목 현상을 제거하는 데 그치지 않고 전반적인 생산성을 향상시킵니다. 예를 들어, 대규모 언어 모델( LLM )을 학습할 때 GPU는 핵심 연산에 집중하고 CPU는 전처리를 지원합니다. 마치 헤드셰프와 수셰프가 동시에 작업하는 것처럼 말이죠. 클라우드 환경에서 CXL은 멀티테넌트 워크로드를 지원할 수 있는 확장 가능한 공유 메모리를 제공하여 마치 수십 건의 주문을 동시에 처리하는 분주한 주방처럼 병렬 처리를 간소화합니다.연구에 따르면 메모리 풀링은 AI 개발 주기를 단축하여  자연어 처리(NLP)  및 이미지 생성과 같은 혁신 기술을 더 빨리 시장에 출시할 수 있도록 지원합니다. 기존의 메모리 병목 현상은 AI가 유용하고 시기적절한 결과를 제공하는 데 방해가 되는 요소였습니다. CXL은 이러한 제약을 해소하여 AI가 발전하는 데 필요한 민첩성을 제공합니다.AI, 클라우드, HPC 워크로드가 발전함에 따라 CXL 메모리 풀링은 단순히 유용할 뿐만 아니라 필수적인 요소가 되고 있습니다. 이는 미래의 데이터 과제에 대비할 수 있는 유연하고 공유 가능하며 지속 가능한 메모리 아키텍처를 제공하여 데이터 센터가 더욱 스마트하게 작업하고, 더 빠르게 확장하고, 더 친환경적으로 운영될 수 있도록 지원합니다.     GIGABYTE의 올인원 CXL 접근 방식 GIGABYTE는 CXL을 중심으로 설계된 고성능 서버를 제공할 뿐만 아니라 하드웨어와 소프트웨어 통합을 아우르는 엔드투엔드 솔루션을 제공하고, AI 클러스터의 잠재력을 최대한 활용하기 위해 메모리 아키텍처를 재정의합니다.     고효율 CXL 서버 기가바이트는 전반적인 시스템 성능과 확장성을 향상시키는 차세대 상호 연결 솔루션을 제공하는 다양한 CXL 지원 서버를 제공합니다. 모듈식 방식으로 구축된 이 시스템은 진화하는 AI 워크로드에 대한 손쉬운 업그레이드와 장기적인 적응성을 제공하도록 설계되었습니다.  R284-S91 ,  R283-Z98 ,  R263-Z39  와 같은  기가바이트 랙 서버는  CPU와 기타 구성 요소 간의 캐시 일관성 링크를 활용하여 메모리 활용도를 최적화하고 테라바이트급 메모리 확장을 지원합니다. 이러한 설계는 동일한 연산 장치에 설치된 DRAM의 지연 시간을 최소화하여 생성적 AI의 높은 처리량 요구에 이상적입니다. 실시간 추론 및 대규모 분석과 관련된 사용 사례에서  G494-SB4는  PCIe Gen5와 CXL을 결합하여 CPU-GPU 협업을 가속화하고 데이터 처리 효율성을 더욱 향상시킵니다.   하드웨어 그 이상 - 완벽한 소프트웨어 통합 기가바이트는 쿠버네티스, 하둡 및 기타 클러스터 오케스트레이션 프레임워크를 지원하는 관리 플랫폼 인 GPM(GIGABYTE POD Manager) 으로 하드웨어를 보완합니다  . 이러한 통합을 통해 MLOps 파이프라인과의 원활한 연동이 가능합니다. 기업은 컴퓨팅 리소스를 동적으로 할당하고, 워크로드를 지능적으로 스케줄링하며, 모델 학습부터 엣지 추론까지 운영을 간소화하여 AI 파이프라인 전반에서 최적의 성능을 보장할 수 있습니다.     CXL을 탑재한 기가바이트 서버는 AI 학습, 클라우드 기반 데이터베이스 쿼리, 엣지 컴퓨팅 과 같은 AI 및 HPC 워크로드에 적합합니다  . 자연어 처리(NLP), 이미지 생성, 과학 시뮬레이션 등 대용량 메모리 풀이 필요한 엔터프라이즈급 컴퓨팅 시나리오에서 운영 효율성을 높일 수 있습니다. 기가바이트의 통합 하드웨어 및 소프트웨어 솔루션은 AI 구축을 더욱 민첩하고 비용 효율적으로 만들어줍니다.     AI 공장의 미래 CXL 메모리 풀링은 AI 인프라에 혁신을 일으켜 유연한 리소스 공유, 초고속 데이터 이동, 그리고 더욱 친환경적인 운영을 가능하게 합니다. 확장 가능하고 효율적이며 지속 가능한 AI 팩토리의 비결은 바로 CXL입니다.GIGABYTE의 서버 아키텍처부터 오케스트레이션 플랫폼까지 엔드 투 엔드 지원을 통해 기업은 강력할 뿐만 아니라 미래의 과제에도 대비할 수 있는 차세대 AI 시스템을 구축할 수 있습니다.

상세보기

[GIGABYTE] Micron & GIGABYTE CXL 워크로드 데모

2025.08.01

[GIGABYTE] Micron & GIGABYTE CXL 워크로드 데모

CXL 기술과 현대 AI/HPC 애플리케이션에 대한 이점에 대해 자세히 알아보세요.     소개 기술이 발전함에 따라 고성능 컴퓨팅(HPC)과 인공지능(AI) 기반 서비스가 일상생활에 점점 더 깊이 통합되고 있습니다. 컴퓨팅 성능 향상에 대해 이야기할 때, 뛰어난 처리 능력으로 인해 CPU와 GPU에 대한 관심이 높아지는 경향이 있습니다. 하지만 메모리 또한 전반적인 시스템 성능에 필수적인 요소임에도 불구하고, 그 중요성에 대한 인식은 상대적으로 낮습니다.메모리는 컴퓨터가 현재 작업 중인 데이터를 일시적으로 저장하는 공간입니다. 메모리 용량이 많고 속도가 빠를수록 시스템은 크고 복잡한 작업을 더 잘 처리할 수 있습니다. 하지만 문제는 대부분의 컴퓨터에 사용되는 DRAM과 같은 기존 메모리 기술이 한계에 도달하고 있다는 것입니다. 마더보드에 장착할 수 있는 메모리 용량이 제한되어 있고, 대용량 모듈은 가격이 비쌉니다.CXL은 그래픽 카드나 SSD와 같은 장치에도 사용되는 PCIe 연결을 통해 컴퓨터의 메모리 용량을 늘릴 수 있도록 하는 새로운 기술입니다. CXL 메모리는 기본 시스템 메모리의 속도에는 미치지 못하지만, 전반적인 시스템 성능을 지원하는 추가 리소스를 제공할 수 있습니다.이를 통해 시스템 메모리를 마더보드의 물리적 한계를 넘어 확장하여 더욱 비용 효율적이고 적응력 있는 솔루션을 제공할 수 있습니다. 마이크론과 기가바이트는 협력하여 기가바이트의 R284-A91-AAL3  CXL 서버,  마이크론의 CZ122 CXL 메모리 확장 모듈, DDR5 RDIMM, 그리고 NVMe SSD 를 사용하여 일련의 실제 테스트를 진행했습니다  . 데모 구성 요소는 다음과 같습니다. 기가바이트 R284-A91-AAL3 2x Intel ® Xeon ®  6 CPU 12채널 DDR5 RDIMM 16x E3.S 2T CXL 확장 4x E3.S Gen5 NVMe SSD 마이크론 CXL CZ122 모듈 128GB/256GB 용량 CXL 2.0을 완벽하게 지원합니다 유형 3 메모리 확장 E3.S 2T 폼 팩터 마이크론 DDR5 RDIMM 128GB 모듈 용량 6400MT/s 대역폭 혁신적인 1β 기술 마이크론 9550 NVMe SSD 15TB 저장 용량 NVMe 2.0/OCP 2.0 지원 G8 TLC 낸드 E3.S 1T 폼 팩터 우리는 테스트를 세 가지 범주로 나누었으며, 각 범주는 명확성을 위해 CXL의 뚜렷한 이점을 강조했습니다.- CXL 메모리 대역폭 확장- CXL 메모리 용량 확장- CXL 비용 효율성     CXL을 사용한 소프트웨어 기반 가중 인터리빙 벤치마크를 평가하기 전에 CXL과 관련된 중요한 과제를 고려해야 합니다. 바로 직접 연결 메모리에 비해 상대적으로 낮은 성능입니다. 전용 메모리 채널을 통해 CPU와 직접 인터페이스하는 기존 DRAM과 달리 CXL 메모리는 PCIe 인터페이스를 통해 작동합니다. 이러한 간접 연결은 지연 시간을 증가시켜 CPU가 DRAM에 저장된 데이터에 액세스하는 데 더 많은 시간이 필요합니다.추가된 CXL 메모리를 활용하기 위해 소프트웨어 기반 가중 인터리빙(Software-Based Weighted Interleaving)이라는 기술을 사용했습니다. 이 기술은 DRAM과 CXL 메모리 간의 데이터 할당 균형을 효율적으로 조절합니다. 연구팀은 이 기술의 효과를 평가하기 위해  다양한 워크로드에서 메모리 대역폭과 지연 시간을 평가하도록 설계된 인텔의 메모리 지연 검사기(MLC)를 활용 하고, DRAM과 CXL 간의 다양한 읽기/쓰기 패턴과 메모리 분배 비율을 사용하여 마이크로벤치마크 테스트를 수행했습니다.각 테스트는 사용자 정의 가중치에 따라 DRAM과 CXL 간에 메모리 페이지를 분할하는 가중 인터리빙 방식을 사용했습니다. 예를 들면 다음과 같습니다. 가중치가 3:1(DRAM:CXL)이면 메모리 트래픽의 75%가 DRAM으로, 25%가 CXL로 이동한다는 의미입니다. 한 도시에서 다른 도시로 운전한다고 상상해 보세요. 네 개의 빠른 고속도로 차선(DRAM)이 있지만 점점 혼잡해지고 있습니다. 이제 몇 개의 느린 샛길(CXL)을 추가합니다. 인터리빙은 모든 흐름이 원활하도록 각 차선 사이의 교통량을 어떻게 분배할지 결정합니다. "가중치"는 고속도로와 샛길을 얼마나 많이 이용할지 결정합니다. 이는 단순히 속도만이 아니라 스마트한 교통 제어에 관한 것입니다.Linux 커널 6.9 이상에 도입된 가중 인터리빙 기능은 DRAM과 CXL 메모리 간의 메모리 할당을 세밀하게 제어할 수 있도록 합니다. 이를 통해  워크로드 특성에 따라 메모리 페이지를 할당하여 대역폭 사용을 최적화 할 수 있습니다  .이 설정을 통해 DRAM과 CXL의 지연 시간과 대역폭이 서로 다르더라도 데이터 흐름을 최적화할 수 있습니다. 무게DRAM 체중CXL BW표준 1 0 1.00 2 1 1.12 5 2 1.25 3 1 1.28 작업 부하: R(읽기 전용) 무게DRAM 체중CXL BW표준 1 0 1.00 3 2 1.22 2 1 1.34 7 3 1.38 작업 부하: W2(1R, 2W) 무게DRAM 체중CXL BW표준 1 0 1.00 3 2 1.25 5 3 1.35 2 1 1.44 작업 부하: W5(1R, 1W) 무게DRAM 체중CXL BW표준 1 0 1.00 3 2 1.18 2 1 1.33 9 4 1.34 작업 부하: W10(2R, 1W) NT     CXL 메모리 대역폭 확장 – 더 큰 대역폭으로 성능 향상 다음 섹션에서는 실제 워크로드에 CXL을 도입했을 때의 효과를 살펴봅니다.고성능 컴퓨팅(HPC) 및 인공지능(AI)과 같이 메모리 사용량이 많은 애플리케이션에서 메모리 대역폭을 늘리면 성능이 크게 향상될 수 있습니다. 이러한 결과는 결과에서 명확하게 확인되었습니다.테스트된 네 가지 워크로드 모두에서 성능이 22%에서 33%까지 향상되었으며, 모든 HPC 및 AI 워크로드에서 기하 평균은 28% 증가했습니다. HPCG 무게DRAM 체중CXL 성능(GFLOPS) 증가하다 1 0 94.32 1.00 3 1 120.75 1.28 팟3D 무게DRAM 체중CXL 실행시간(초) 속도 향상 1 0 706 1.00 5 2 539 1.31 클로버잎 무게DRAM 체중CXL 실행시간(초) 속도 향상 1 0 116.74 1.00 9 4 87.53 1.33 파이스 무게DRAM 체중CXL 출력 토큰대기 시간(ms) 속도 향상 1 0 2.28 1.00 2 1 1.87 1.22 우리가 평가한 작업 부하에 대한 개요는 다음과 같습니다. HPC 워크로드 고성능 공액 그래디언트(HPCG) 다중 격자 사전 조건 공액 경사 알고리즘을 사용하여 크고 희소한 선형 시스템을 해결합니다. 많은 메모리 접근이 필요한 과학 및 공학 작업 부하를 처리합니다. 팟3D 3차원 포아송 방정식을 시뮬레이션합니다. 3차원 정전기 퍼텐셜과 관련된 분자 동역학 및 물리 문제입니다. 클로버잎 격자 구조에서 압축성 오일러 방정식을 풉니다. 천체물리학, 핵 시뮬레이션, 산업 충격파 모델링. AI 워크로드 파이스 근사 최근접 이웃(ANN) 탐색을 사용합니다. 추천 시스템, 벡터 탐색, NLP 임베딩과 같은 AI 워크로드에 적합합니다.     CXL 메모리 용량 확장 – 빅데이터 확장 CXL의 한 가지 장점은 마더보드 슬롯의 제한이나 대용량 DIMM의 비용 제약을 넘어 메모리 리소스를 확장할 수 있는 기능입니다.분석 데이터베이스 엔진인 DuckDB를 사용하여 TPC-H와 TPC-DS의 두 가지 벤치마크 제품군을 테스트했습니다.TPC-H는 단순화된 스키마에서 분석 쿼리를 평가하는 반면, TPC-DS는 혼합된 쿼리 유형을 사용하는 실제 소매 데이터베이스 워크로드를 나타내도록 설계된 보다 복잡한 벤치마크입니다.DRAM+CXL+인터리빙으로 테스트한 결과는 다음과 같습니다.-TPC-H에서 2.93배 개선- TPC-DS에서 2.01배 개선이러한 결과는 CXL이 의사 결정 지원 시스템 및 빅데이터 애플리케이션의 성능 향상에 기여할 수 있음을 나타냅니다.이는 CXL이 단순히 속도에 관한 것이 아니라 메모리에 맞지 않는 더 크고 복잡한 워크로드를 가능하게 하는 것임을 보여줍니다. 정책 인스턴스 분당 쿼리 수 최대 메모리(TB) 성능 향상 DRAM만 2 2.52 1.44 1.00 DRAM+CXL 기본값 4 2.83 1.87 1.12 DRAM+CXL TPP 4 3.02 1.93 1.20 DRAM+CXL 인터리브 8 7.38 2.86 2.93 정책 인스턴스 분당 쿼리 수 최대 메모리(TB) 성능 향상 DRAM만 4 1.84 1.56 1.00 DRAM+CXL 기본값 4 2.21 2.61 1.20 DRAM+CXL TPP 4 2.55 3.64 1.39 DRAM+CXL 인터리브 6 3.70 3.77 2.01     CXL 비용 효율성 – 속도 저하 없이 비용 절감 마지막으로 비용 효율성을 고려하는 것이 중요합니다.높은 메모리 요구 사항과 특히 대규모 임베딩 테이블의 대기 시간에 대한 민감성으로 인해 엄격한 벤치마크 역할을 하는 딥 러닝 추천 모델(DLRM)을 실행하여 CXL 메모리의 성능을 평가했습니다.CXL이 이러한 까다로운 조건에서 좋은 성능을 보인다면 광범위한 워크로드에 적합함을 시사합니다.관찰된 성능 영향은 최소였습니다.-메모리의 50%가 CXL을 통해 할당되었을 때 약 2% 저하 - 메모리의 67%가 CXL에서 사용되었을 때 약 9% 감소실질적으로 이는 조직이 대부분의 시스템 성능을 유지하면서 64GB 모듈보다 최대 3배 더 비쌀 수 있는 대용량 128GB RDIMM을 구매하는 데 드는 비용을 크게 줄일 수 있음을 시사합니다.특히 규모에 따라 큰 비용 절감을 위한 작은 균형입니다. 구성 DLRM벤치마크 정책 정규화된성능 1.5TB DRAM만 17899 - 1 768GB DRAM + CXL 17555 SW 인터리빙 0.98 512GB DRAM + CXL 16250 SW 인터리빙 0.91 *언급된 잠재적 비용 절감은 언제든지 시장 변화에 따라 달라질 수 있습니다. 자세한 내용은 당사 영업 담당자에게 문의하세요.     결론 CXL은 아직 비교적 새로운 기술이지만, 이 데모는 특히 스마트 메모리 인터리빙 방법론과 함께 사용할 경우 실제 환경에 바로 적용 가능한 기술임을 보여줍니다. AI 모델 구축, 대규모 데이터세트 분석, 시뮬레이션 실행 등 어떤 작업을 수행하든 CXL은 다음과 같은 이점을 제공합니다.- 더 빠른 성능을 위한 더 넓은 메모리 대역폭- 더 큰 워크로드를 처리할 수 있는 더 큰 용량- 큰 손실 없이 비용 절감마이크론과 기가바이트 같은 기업들이 이러한 변화를 선도함에 따라 컴퓨팅의 미래는 훨씬 더 확장 가능하고 효율적이 될 것으로 예상됩니다.

상세보기

[GIGABYTE] AI 및 AIoT 준비되셨나요? AI 공장 시대가 도래했습니다!

2025.07.14

[GIGABYTE] AI 및 AIoT 준비되셨나요? AI 공장 시대가 도래했습니다!

                   

상세보기

[GIGABYTE] 지속 가능한 모터스포츠 혁신을 촉진하다

2025.06.23

[GIGABYTE] 지속 가능한 모터스포츠 혁신을 촉진하다

             

상세보기

[GIGABYTE] DCIM x AIOps: AI 소프트웨어를 재편하는 차세대 빅 트렌드

2025.05.22

[GIGABYTE] DCIM x AIOps: AI 소프트웨어를 재편하는 차세대 빅 트렌드

               

상세보기

[GIGABYTE] Solidigm SSD와 GIGABYTE 서버를 활용한 AI 학습 최적화

2025.04.11

[GIGABYTE] Solidigm SSD와 GIGABYTE 서버를 활용한 AI 학습 최적화

      고객 과제 AI 애플리케이션이 점점 더 복잡해짐에 따라, 기업들은 GPU 활용도를 극대화하고 AI 학습 클러스터의 효율적인 데이터 처리량을 유지하는 데 있어 점점 더 많은 어려움에 직면하고 있습니다. 스토리지 시스템은 고성능 GPU에 맞춰 학습 데이터를 신속하게 제공하는 데 중요한 역할을 하지만, 네트워킹, 메모리 계층 구조, 데이터 전처리 파이프라인을 포함한 전반적인 시스템 아키텍처 또한 학습 효율성에 상당한 영향을 미칩니다. 이러한 과제를 전체적으로 해결하는 것은 병목 현상을 최소화하고, 하드웨어 활용도를 최적화하며, 운영 비용을 절감하는 데 필수적입니다.AI 성능 확장을 목표로 하는 기업의 경우, 파트너십은 하드웨어 투자를 최대한 활용하고 학습 성능을 극대화하는 과제를 극복하는 데 도움이 됩니다. GIGABYTE의 집중적인 옵션과 Solidigm SSD를 통해 고객은 AI 학습 목표 달성을 위한 새롭고 향상된 방법을 찾을 수 있습니다. 기가바이트 서버 솔루션 GIGABYTE는 Solidigm과 협력하여 고성능 Solidigm D7-PS1010과 대용량 D5-P5336을 통합하여 이러한 과제를 해결했습니다. SSD를 활용하여 GPU 활용도와 전반적인 학습 효율성이 크게 향상되었습니다.GIGABYTE와 Solidigm은 AI 워크로드의 스토리지 성능 평가를 위한 업계 선도적인 표준인 MLPerf Storage v1.0 벤치마크를 사용하여 Unet3D, ResNet50, CosmoFlow를 포함한 다양한 AI 모델에서 솔루션을 테스트했습니다. 특히 Solidigm D7-PS1010 PCIe 5.0 SSD는 타사 PCIe 5.0 SSD와, Solidigm D5-P5336 PCIe 4.0 SSD는 타사 PCIe 4.0 SSD와 비교했습니다.     활용된 벤치마크 MLPerf는 스토리지 시스템이 AI/ML 파이프라인 학습 데이터를 GPU에 얼마나 효율적으로 공급할 수 있는지 평가하도록 설계된 표준화된 벤치마크입니다. 학계, 업계 리더, AI 연구자들이 참여하는 협력 기관인 MLCommons에서 개발 및 관리하고 있습니다.ML Perf 제품군 내에서 MLPerf 스토리지 벤치마크를 활용했습니다. 이 벤치마크는 스토리지 솔루션이 ML 모델 학습 중에 GPU와 같은 가속기를 효율적으로 활용할 수 있도록 데이터를 얼마나 효과적으로 공급할 수 있는지 측정하도록 설계되었습니다. 이 벤치마크는 최신 가속기 시뮬레이션을 포함하며, 다음 세 가지 주요 워크로드에 중점을 둡니다. Unet3D : 체적 분할을 위해 설계된 모델로, 일반적으로 의료 영상에서 3D 스캔 내의 구조를 구분하는 데 사용됩니다. ResNet50 : 50개의 레이어로 구성된 심층 잔여 네트워크로, 이미지 분류 작업에 널리 사용됩니다. CosmoFlow : 우주론적 데이터에 적용된 3D 합성 신경망으로, 시뮬레이션 데이터로부터 우주의 물리적 매개변수를 예측하는 것을 목표로 합니다. 이러한 워크로드는 다양한 데이터 크기와 액세스 패턴을 포괄하여 다양한 ML 애플리케이션의 스토리지 성능을 평가하기 위한 강력한 프레임워크를 제공합니다. 가속기의 "생각 시간"을 시뮬레이션함으로써, 이 벤치마크는 실제 GPU 없이도 스토리지 수요를 정확하게 모델링할 수 있으므로 다양한 스토리지 솔루션을 평가하는 데 유용합니다. AI 모델 용법 AU(가속기 활용) 유넷3D 의료 - 이미지 분할 > 90% 레스넷50 비전 - 이미지 분류 > 90% 코스모플로우 과학 - 우주론 매개변수 예측 > 70%   성능 및 효율성 향상 향상된 GPU 활용률AI 모델 전반에 걸쳐 Solidigm SSD가 도입되면서 AI 학습 중 지원되는 GPU 수가 크게 증가했습니다. 예를 들어 ResNet50 예에서 Solidigm D7-PS1010은 92.68%의 가속기 활용률(AU)을 나타냈고 NVIDIA H100 시스템에서 70개의 GPU를 지원했지만 다른 브랜드는 90.33%의 AU만 나타냈고 58개의 GPU를 지원했습니다. Solidigm SSD는 값비싼 GPU 리소스가 최대한 활용되도록 하여 유휴 시간을 줄이고 모델 학습을 가속화합니다.뛰어난 처리량 및 읽기 성능GIGABYTE 시스템과 Solidigm SSD의 조합은 뛰어난 처리량과 읽기 속도를 제공했습니다. 예를 들어 Solidigm D7-PS1010은 NVIDIA H100 GPU가 있는 ResNet50에서 115,805개 샘플/초 및 12,663MB/s의 처리량을 달성하여 70개 GPU의 성능을 시뮬레이션했습니다. 이는 다른 브랜드의 드라이브보다 거의 24% 더 높은 성능을 보였습니다. 이러한 결과는 더 빠른 데이터 처리 모델 학습으로 이어집니다. 레스넷50 여러 AI 모델에서 효율성 향상의료 영상용 Unet3D나 우주론 시뮬레이션용 Cosmoflow를 학습할 때 Solidigm SSD는 경쟁 솔루션보다 지속적으로 우수한 성능을 보였습니다. 예를 들어 Solidigm D5-P5336 SSD는 ResNet50 워크로드에서 다른 브랜드 드라이브보다 처리량이 22% 향상되었습니다. 유넷3D 코스모플로우 Gen5 SSD로 미래 지향적 설계Solidigm D5-P5336 PCIe 4.0 SSD를 다른 브랜드의 PCIe 4.0 SSD와 비교한 현재 결과는 네트워크 연결 스토리지에서 용량 중심 솔루션에 인상적입니다. 이는 Solidigm이 AI에 대한 심층적인 지식을 지속적으로 사용하여 제품을 최적화하고, 성장하는 제품군 내에서 포트폴리오 전반에 걸쳐 솔루션의 가치를 실현하고 있음을 보여줍니다. 최근 출시된 Solidigm D7-PS1010 PCIe 5.0 SSD 제품군은 필요할 때 대기 시간을 줄이고 직접 연결 스토리지 요구 사항에서 데이터 흐름을 개선하여 훨씬 더 효율적인 AI 교육 클러스터를 위한 토대를 마련합니다.실제 영향이 협업의 결과로 이제 AI 중심 참여를 위해 Solidigm SSD로 선두를 달릴 수 있습니다. 입증된 성능 향상은 이미 BeeGFS, Mangoboost, NCHC와 같은 선도적인 기관의 관심을 끌었습니다.     추가 정보 이 협업에 대한 자세한 내용과 Solidigm과 Giga Computing이 어떻게 AI 인프라를 강화할 수 있는지 알아보려면 다음을 방문하세요. Solidigm:  solidigm.comGiga Computing:  gigacomputing.comMLPerf 벤치마크 세부 정보:  mlcommons.org     Solidigm 소개 Solidigm은 혁신적인 NAND 플래시 메모리 솔루션을 제공하는 세계적인 선도 기업입니다. Solidigm의 기술은 고객의 무한한 데이터 잠재력을 활용하여 인류 발전에 기여할 수 있도록 지원합니다. 인텔의 NAND 및 SSD 사업부 매각을 계기로 설립된 Solidigm은 2021년 12월 반도체 업계 선두주자인 SK하이닉스의 미국 독립 자회사가 되었습니다. 캘리포니아주 랜초 코르도바에 본사를 둔 Solidigm은 전 세계 13개 지역에 있는 직원들의 창의력을 바탕으로 운영됩니다. 더 자세한 정보는 solidigm.com을 방문하시거나 트위터와 링크드인을 팔로우해 주세요. "Solidigm"은 SK하이닉스 NAND Product Solutions Corp.(상호명 Solidigm)의 상표입니다.     충수 MLPerf 스토리지 벤치마크 필수 지표를 다음과 같이 측정합니다.처리량(MB/s): 스토리지에서 데이터 세트를 로드하는 속도입니다.데이터 세트 크기(GB): 사용된 데이터 세트의 총 크기입니다.가속기 사용률(%): 가속기 사용률(AU)은 시뮬레이션된 가속기가 소요한 시간을 전체 벤치마크 실행 시간 대비 백분율로 나타낸 것입니다. 높을수록 좋습니다.AU(백분율) = (총 계산 시간/총 벤치마크 실행 시간) * 100.다른 브랜드 결과에 사용된 서버 시스템 및 튜닝은 Solidigm + Giga Computing 설정과 다릅니다. 다른 브랜드 결과는 다음 링크에서 확인할 수 있습니다.  Micron의 NVMe SSD를 사용한 AI 시스템 최적화 섬기는 사람 기가바이트 R163-Z35 CPU AMD EPYC™ 9555P - 64코어 x1 메모리 M321R8GA0BB0-CQKMG - 삼성 - 64GB DDR5 x 12 OS 디스크 인텔 1.6TB x 2, U.2 테스트 대상 SSD 1 솔리다임 D5-P5336 테스트 대상 SSD 2 솔리디그 D7-PS1010

상세보기

[GIGABYTE] GIGABYTE 심층 분석: 업계를 선도하는 액체 냉각 솔루션을 구축한 방법

2024.12.27

[GIGABYTE] GIGABYTE 심층 분석: 업계를 선도하는 액체 냉각 솔루션을 구축한 방법

    인공 지능(AI)  시대  에  서버  냉각은 고급 프로세서를 구매할 때 투자 수익률(ROI)을 높이는 데 중요합니다. GIGABYTE Technology는 서버 냉각 분야에서 입증된 선구자입니다. 당사의  직접 액체 냉각(DLC)  및  침지 냉각  솔루션은 대만에 본사를 둔 세계적으로 유명한  반도체 거대 기업  , 일본 통신사 선두주자  KDDI ,  독일 항공우주센터(DLR)와 같은 고객이 사용합니다 . 이 기사에서는 DLC 전문가와 인터뷰를 하고  GIGABYTE의 액체 냉각 제품을  "제품"에서 "올인원 솔루션"으로 전환한 세 가지 중요한 "고객 중심 통찰력"에 대해 논의하게 되어 기쁩니다.자세히 알아보기:《GIGABYTE의 고급 냉각 솔루션 살펴보기》《스마트 혁명을 준비하셨나요? GIGABYTE의 AI 솔루션 페이지 방문》     직접 액체 냉각은 장기적으로 기하급수적 수익을 가져온다 ● 질문:  데이터 센터  운영자와  IT  전문가가 액체 냉각을 도입하는 것을 고려해야 하는 이유는 무엇입니까?● 답변:다음은 공랭식에 없는 액체 냉각 구성 요소 목록입니다. CPU  및  GPU  와 같은 서버의 발열 요소에서 냉각수로 열 에너지를 전달하는 냉각판; 냉각수를 서버 안팎으로 운반하는 콜드 루프; 누출 센서 보드; 냉각수를 냉각수  분배 장치(CDU) 로 순환시키는 랙 매니폴드 ; "랙 기반"인 경우 랙의 상단 또는 하단에 배치되거나 "행 기반"인 경우 랙과 분리되어 여러 랙에 냉각을 제공할 수 있는 CDU 자체.이러한 구성 요소 중 냉각판과 매니폴드는 서버 모델에 따라 달라집니다. 즉, 처음부터 설계해야 할 수도 있습니다. 그런 다음 제조, 조립 및 테스트됩니다. CDU는 서버 모델에 특화되지는 않지만 생산 및 배송에도 시간이 걸립니다. 이러한 모든 요소는 고려해야 할 중요한 요소입니다. 서버 랙에 액체 냉각을 도입한다는 것은 많은 새로운 구성 요소를 추가한다는 것을 의미합니다. 진입 장벽에도 불구하고 액체 냉각은 더 나은 컴퓨팅 성능, 더 나은 지속 가능성, 장기적으로 더 낮은 비용 덕분에 AI 시대의 새로운 성장 엔진입니다.   액체 냉각을 채택하는 세 가지 주요 이유는 다음과 같습니다. a, 더 높은  TDP  및 컴퓨팅 밀도로 인한 더 나은 성능; b, 향상된  전력 사용 효율성(PUE) 으로 인한 더 작은 탄소 발자국으로 , 이는 친환경 컴퓨팅을 달성하는 데 도움이 됩니다. c, 더 낮은 운영 비용(OpEx) 및 총 소유 비용(TCO)입니다. 이러한 이점은  AMD의 Instinct™ MI300 시리즈 ,  Intel® Gaudi® 3 ,  NVIDIA Hopper 및 Blackwell GPU 와 같은 가속기로 AI를 개발하는 모든 분야의 기업에서  생성 AI  및  고성능 컴퓨팅(HPC) 시대에 매우 중요하며 , 점점 더 많은 고객이 액체 냉각이 주류가 될 것이라는 사실에 동참하고 있습니다.     GIGABYTE의 첫 번째 단계는 고객의 실제 요구 사항을 이해하는 것입니다. ● 질문: GIGABYTE의 액체 냉각 솔루션을 정의하는 첫 번째 "고객 중심적 통찰력"은 무엇입니까?● 답변:액체 냉각 도입의 진입 장벽을 설명했지만, 성공적인 올인원 DLC 솔루션을 만드는 첫 번째 단계는 GIGABYTE만으로 시작되지 않는다는 점을 충분히 강조할 수 없습니다. 고객과 소통하고 이해하는 것으로 시작됩니다.고객이 액체 냉각에 대해 문의하면 데이터 센터 인프라에 대한 전체적인 평가를 시작합니다. 재료 설계, 데이터 센터 설치, 네트워크 레이아웃 및 소프트웨어 테스트와 같은 사항을 다룹니다. 또한 고객이 기존 냉각 하드웨어를 수정할 의향이 있는지도 파악합니다. 고객이 공랭 인프라를 최소한으로 변경하기를 원한다면 액체 대 공기 DLC 솔루션을 권장할 수 있습니다. 또한 운영자가 공랭에서 액체 냉각으로 점진적으로 전환할 수 있도록 기존 랙에 후면 도어 열 교환기(RDHx)를 설치하는 것을 제안할 수도 있습니다.우리는 우리의 발견을 기초로 클라이언트의 전력, 공간 및 인프라 제한과 컴퓨팅 목표에 따라 데이터 센터를 설정하는 새로운 방법을 제안합니다. 그런 다음 클라이언트의 요구 사항 프레임워크 내에서 작업하여  서버 배치, 인프라 전원 공급 및 열 관리에 대한 옵션과 함께 적합한 액체 냉각 서버를제공합니다. 이 절차를 통해 클라이언트는 최상의 전반적인 성능을 달성하고 가장 최적화된 PUE를 누릴 수 있습니다. 이 프로세스를 완료한 후에야 맞춤형 DLC 솔루션을 만드는 단계로 넘어갑니다. 여기서 두 번째 "고객 중심 통찰력"이 핵심이 됩니다. GIGABYTE는 고객 선호도에 따라 다양한 유형의 액체 냉각을 추천할 수 있습니다. 이 그래프는 다양한 방법의 냉각 효능과 초기 투자에 대한 일반적인 아이디어를 제공합니다.   자세히 알아보기:《액체 냉각을 넘어: GIGABYTE의 침지 냉각으로 새로운 경계를 깨다》《기술 가이드: 서버를 위한 냉각 솔루션을 선택하는 방법?》     설계 및 제조 전문성은 이상적인 DLC 솔루션 구축의 핵심입니다. ● 질문: GIGABYTE의 액체 냉각 솔루션을 정의하는 두 번째 "고객 중심적 통찰력"은 무엇입니까?● 답변:앞서 말했듯이 냉각판 선택은 냉각하는 서버 구성 요소에 따라 달라집니다. 구성 요소가 CPU, GPU 또는 메모리인지 판단하고 클라이언트의 프로세서 선택과 칩 레이아웃에 따라 냉각판이 매우 다를 수 있습니다. GIGABYTE는 자체 냉각판을 설계하고 제작할 수 있는 역량이 있을 뿐만 아니라 검증된 에코시스템 파트너와 협력하여 해당 제품을 통합합니다.이를 이상적인 올인원 DLC 솔루션을 만드는 데 필요한 두 번째 통찰력의 예로 사용합니다. 솔루션은 항상 고객을 따라야 하며, 그 반대가 아닙니다. 고객의 요구 사항을 완벽하게 충족하기 위해 필요한 모든 조정을 합니다.또 다른 예는 랙 매니폴드입니다. 신뢰할 수 있는 품질과 안정적이고 균형 잡힌 냉각수 공급은 기본에 불과합니다. GIGABYTE의 매니폴드는 랙의 앞면 또는 뒷면에 설치할 수 있습니다. 필요한 경우 서버에도 설치할 수 있습니다.이 제품은 서버  노드 의 안전한 유지 관리를 위한 입증된 스테인리스 스틸 디자인과 드라이 브레이크 퀵 디스커넥트 기능을 자랑합니다 .고객이 위험을 제어하는 데 도움이 되는 누출 센서 보드도 이 원칙을 준수합니다.GIGABYTE의 누출 센서 보드는 다양한 서버 모델과 호환되며 번거롭지 않게 설치할 수 있습니다.고객의 실제 요구 사항에 대한 통찰력에서 탄생한 신제품 중 하나가 GIGABYTE의 DLC 랙입니다.다재다능한 디자인은 전면 및 후면 랙 매니폴드를 지원합니다.  최대 14.5kW의 전력 소모량을 가진 시스템을 지원할 수 있는 22U( 랙 유닛 ) 하프 랙 디자인인 DL90-ST0 부터 단일 랙에서 4개의 전력 분배 장치(PDU)를 처리할 수 있는 풀 랙 솔루션까지 크기가 다양합니다.이러한 제품은 고객에게 액체 냉각을 위한 L11 멀티 랙 솔루션을 제공할 수 있습니다. GIGABYTE의   초대형  AI 훈련  및  AI 추론을 위한 클러스터 컴퓨팅 솔루션인 GIGAPOD  는 또한 액체 냉각을 활용하여 컴퓨팅 성능과 밀도를 개선합니다. 이는 AI 개발 및 고급 냉각의 정점입니다. GIGABYTE는 DLC 제품만 판매하는 것이 아니라 단일 서버에서 서버 랙, 여러 랙으로 구성된 클러스터에 이르기까지 모든 것을 포괄하는 토탈 솔루션을 판매합니다. 이처럼 광범위한 옵션을 통해 모든 고객이 가장 적합한 솔루션을 찾을 수 있습니다.   자세히 알아보기:《기술 가이드: 데이터 센터를 AI에 대비시키는 방법? 1부, 고급 냉각》《데이터 센터 냉각 솔루션을 선택하기 전에 알아야 할 5가지 기술 용어》     Value Chain Leadership은 고객에게 동급 최고의 지원을 보장합니다. ● 질문: GIGABYTE의 액체 냉각 솔루션을 정의하는 세 번째 "고객 중심적 통찰력"은 무엇입니까?● 답변:GIGABYTE는 R&D 및 제조 역량을 자랑스러워하지만 액체 냉각에 관해서는 고객만큼 고유한 요구 사항이 많다는 것이 분명해야 합니다. 당사는 다양한 업계를 선도하는 에코시스템 파트너와 협력하여 고객에게 가장 적합한 맞춤형 솔루션을 제공합니다. 제조 및 통합을 GIGABYTE로 이전함으로써 당사 솔루션은 리드 타임을 단축하고 더 저렴한 가격으로 제공될 수 있습니다.예를 들어, 당사는 업계 베테랑인 Stäubli와 협력하여 DLC 솔루션에 품질이 보장된 커넥터를 제공합니다. 당사는 Motivair, nVent, Delta와 같은 IT 냉각 분야의 글로벌 혁신 기업과 협력하여 최고 수준의 CDU를 통합하여 비용 효율적이고 고밀도 냉각을 제공합니다. 4U의 공간만 차지하는 단일 랙 기반 액체-액체 CDU로 GIGABYTE의 가장 진보된  GPU 서버 전체 랙을 냉각할 수 있습니다 .GIGABYTE는 고객 요청에 따라 랙의 하단이나 상단에 CDU를 설치할 수 있습니다.또한 CDU 위치에 따라 매니폴드를 조정할 수도 있습니다.CDU의 설치, 조정 및 정기 유지 관리가 GIGABYTE의 DLC 설치 서비스 및 올인원 솔루션의 일부입니다.냉각판에서 매니폴드, CDU에 이르기까지 다양한 공급업체의 구성 요소를 결합하여 전체 솔루션을 구축하는 것은 많은 작업입니다.고객에게 직접 서비스를 제공하는 브랜드 서버 회사로서 가치 사슬 리더십을 입증하는 것은 우리의 몫입니다.GIGABYTE는 호환성이나 냉각수 침식 문제를 피하기 위해 냉각수 및 커넥터와 같은 솔루션에 사용되는 재료를 정의해야 합니다.간단히 말해, 고객에게 최상의 제품을 제공하기 위해 전체 솔루션에 대한 품질 관리를 유지해야 합니다.이 팀은 한 달에 여러 번 가치 사슬 파트너와 컨퍼런스를 열어 솔루션 설계를 논의합니다. 소통과 관리를 통해 모든 구성 요소의 품질이 업계 최고 표준을 준수하도록 보장하여 DLC 솔루션의 원활한 개발, 생산 및 설치 주기를 보장합니다. 한눈에 보기에, 고급 냉각의 세계로 첫 발을 내딛을 때 얻을 수 있는 세 가지 주요 이점은 다음과 같습니다. 점점 더 많은 회사가 액체 냉각을 채택함에 따라, 현대 AI 및 HPC 데이터 센터에 액체 냉각이 주류가 되고 있으며, 심지어 필수가 되고 있습니다. GIGABYTE는 고객 만족을 위해 최선을 다합니다. ● 질문: 성공적인 DLC 프로젝트를 완료하기 위한 마지막 단계는 무엇입니까?● 답변:DLC 솔루션을 설계, 제작, 테스트한 후 고객의 데이터 센터 또는  서버실 에 설치해야 합니다 . 고객 만족을 위해서는 정기적인 서비스와 지원이 필요합니다.GIGABYTE는 데이터 센터 설치 분야에서 광범위한 경험을 보유하고 있습니다. 앞서 언급했듯이, 저희는 사용자 요구 사항을 완벽하게 충족하도록 DLC 솔루션을 만듭니다. 여러 지역의 에코시스템 파트너 및 공급업체와 협력하여 글로벌 설치 서비스와 지원을 제공합니다.DLC 솔루션이 가동되면 어떤 상황이 발생하더라도 GIGABYTE의 R&D 팀과 현장 애플리케이션 엔지니어(FAE)는 구성 요소 공급업체의 주요 기관과 직접 연락하여 최대의 효율성과 효과적인 문제 해결을 보장합니다.DLC 솔루션이 완벽하게 설치되고 작동한 후에야, 그리고 가능한 모든 문제가 만족스럽게 해결된 후에야 저희는 스스로를 칭찬하며 "성공적인 DLC 프로젝트가 끝났습니다!"라고 말할 수 있습니다."GIGABYTE 심층 분석: 업계를 선도하는 액체 냉각 솔루션을 구축한 방법"을 읽어주셔서 감사합니다. 이 기사가 도움이 되고 유익했기를 바랍니다. 

상세보기

[GIGABYTE] GIGAPOD가 원스톱 서비스를 제공하고 포괄적인 AI 혁명을 가속화하는 방법

2024.10.25

[GIGABYTE] GIGAPOD가 원스톱 서비스를 제공하고 포괄적인 AI 혁명을 가속화하는 방법

    현대 컴퓨팅 아키텍처의 과제 GPU 애플리케이션과 AI 개발의 초기에는 컴퓨팅 요구 사항이 비교적 낮고 상호 연결 기술이 아직 성숙하지 않았을 때 GPU 컴퓨팅은 주로 간단한 단일 서버 아키텍처에서 실행되었습니다. 그러나 학습 모델의 규모가 커지면서 다중 GPU 및 다중 노드 아키텍처의 중요성이 더욱 분명해졌으며, 특히 수천억 개의 매개변수가 있는 LLM을 학습하는 경우에 그러했습니다. GPU는 중요하지만 클러스터 컴퓨팅 상호 연결은 AI 학습 시간을 크게 단축할 수 있고 대규모 컴퓨팅 센터의 필수 구성 요소가 되었기 때문에 간과할 수 없습니다.고급 기업이 이상적인 AI 애플리케이션 솔루션을 구축할 때 일반적으로 초기 하드웨어 배포 중에 세 가지 주요 요구 사항에 직면합니다. 강력한 컴퓨팅 : GPU 노드는 동시에 컴퓨팅을 수행하여 AI 학습 및 시뮬레이션 중에 행렬 연산과 같은 병렬 처리 작업을 효율적으로 수행할 수 있습니다. 체계적인 하드웨어 배포 : 데이터 센터를 배포하려면 데이터 센터 전원, 바닥 레이아웃, 랙 구성, 열 관리와 같은 주요 측면에 대한 세심한 계획이 필요하며, 완전한 시스템 하드웨어 통합을 보장해야 합니다. 중단 없는 고속 네트워크 아키텍처 : 고속 네트워크 토폴로지는 높은 대역폭, 낮은 지연 시간의 네트워크 상호 연결을 제공하여 데이터 전송 속도를 높이고 시스템 성능을 향상시킵니다. 데이터 센터 구축에 대한 논의는 종종 GPU 수와 컴퓨팅 파워에 초점을 맞추지만, 잘 확립된 전원 공급 및 냉각 시스템이 없다면 서버실의 GPU는 잠재력을 실현할 수 없습니다. 또한 고속 네트워킹 아키텍처는 각 컴퓨팅 노드가 실시간으로 통신하여 기하급수적으로 증가하는 데이터를 처리할 수 있는 빠른 GPU 간 통신을 가능하게 하는 데 중요한 역할을 하므로 필수적입니다.현대 데이터 센터가 직면한 과제를 극복하기 위해 다음 섹션에서는 GIGAPOD가 오늘날 AI 데이터 센터를 구축하는 데 가장 적합한 솔루션인 이유를 자세히 설명합니다. 그림 1: GIGABYTE G593 시리즈 서버 GIGABYTE G593 시리즈 서버의 구성/사양은 다음과 같습니다. CPU : 듀얼 4/5세대 Intel ® Xeon ® 확장 가능 프로세서 또는AMD EPYC™ 9005/9004 시리즈 프로세서 GPU : NVIDIA HGX™ H100/H200 GPU 또는OAM 호환 가속기: AMD Instinct™ MI300 시리즈 및 Intel ® Gaudi ® 3 AI 메모리 : 24x DIMM(AMD EPYC) 또는 32x DIMM(Intel Xeon) 저장 장치 : 8x 2.5” Gen5 NVMe/SATA/SAS-4 핫스왑 드라이브 PCIe 슬롯 : 4x FHHL 및 8x 로우 프로파일 PCIe Gen5 x16 슬롯 전원 : 4+2 3000W 80 PLUS Titanium 중복 전원 공급 장치 G593 시리즈의 모든 서버 모델은 8-GPU 베이스보드와 듀얼 CPU를 지원합니다. 병렬 컴퓨팅 워크로드에서 서버는 주로 GPU에 의존하는 반면 복잡한 선형 처리 작업은 CPU가 처리합니다. 이러한 워크로드 분배는 AI 교육 애플리케이션에 이상적이며 사용자는 AMD 또는 Intel 중에서 선호하는 CPU 플랫폼을 선택할 수 있습니다.     확장 가능한 네트워크 아키텍처 AI 컴퓨팅은 종종 여러 분산 노드에서 대규모 데이터 세트를 처리하는 것을 포함합니다. 클러스터의 진정한 잠재력을 실현하기 위해 네트워크는 노드 간에 높은 데이터 전송 속도를 가능하게 하고, 동기화를 보장하고, 전체 시스템에서 데이터 일관성을 유지하는 데 중요한 역할을 합니다.대규모 언어 모델 학습 중에 데이터 집약적 워크로드는 각 서버 내의 8개 GPU에서 처리합니다. 이러한 GPU는 고속 상호 연결 기술을 사용하여 최대 900GB/s의 속도로 데이터를 교환하여 계산 효율성을 극대화할 수 있습니다. 클러스터의 다른 GPU 노드와의 데이터 교환은 일반적으로 400Gb/s NDR InfiniBand가 있는 NVIDIA Quantum-2 QM9700 스위치를 사용하는 여러 스위치의 네트워크 아키텍처를 통해 처리됩니다. 그림 2: Fat Tree 토폴로지를 사용하는 GIGAPOD의 클러스터   요약하자면, GIGAPOD 확장형 유닛은 32개의 GPU 서버와 12개의 스위치로 구성되며, 4개는 스파인 스위치로, 8개는 리프 스위치로 작동하며, 모두 256개의 NIC 카드를 통해 연결 및 관리되어 각 GPU를 조정합니다. 아래는 사양의 예입니다. NVIDIA MMA4Z00-NS 2x400Gb/s 트윈 포트 OSFP 트랜시버 가 있는 4x NVIDIA Quantum-2 QM9700 스파인 스위치(상단 레이어) NVIDIA MMA4Z00-NS 2x400Gb/s 트윈 포트 OSFP 트랜시버가 있는 8x NVIDIA Quantum-2 QM9700 Leaf 스위치(중간 계층) 각 서버에는 NVIDIA MMA4Z00-NS400 400Gb/s 단일 포트 OSFP 트랜시버가 있는 8개의 NVIDIA ConnectX ® -7 NIC(하단 계층)가 있습니다. NVIDIA MPO-12/APC 수동 파이버 케이블 그림 3: 액체 냉각이 있는 GIGAPOD: 4개의 GPU 컴퓨팅 랙         포괄적인 배포 프로세스 32개의 GPU 서버가 있는 단일 GIGAPOD 확장 가능 유닛을 완성하려면 20,000개 이상의 구성 요소가 필요하므로 각 단계가 원활하게 진행되도록 매우 체계적인 프로세스가 필요합니다. 컨설팅에서 실제 배포까지 GIGABYTE는 5단계 프로세스를 활용하여 GIGAPOD가 처음부터 끝까지 성공적으로 구축되고 제공되도록 합니다.     AI 기반 소프트웨어 및 하드웨어 통합 AI 기반 기업의 복잡한 요구 사항을 지원하기 위해 GIGAPOD는 GIGAPOD Management Platform(GPM)과 페어링되어 서버, 네트워킹, 스토리지, 전원 및 냉각을 포함하여 클러스터 전반의 장치에 대한 통합 유지 관리 인터페이스를 제공합니다. 이를 통해 기업은 클러스터의 모든 IT 하드웨어에 대한 대규모 모니터링, 유지 관리 및 관리를 수행할 수 있습니다. GPM은 NVIDIA AI Enterprise의 Base Command Manager(BCM) 및 Canonical의 Juju 플랫폼과의 통합을 지원하고 NVIDIA BCM SLURM 및 Canonical Charmed Kubernetes와 같은 작업 스케줄링 소프트웨어의 자동 배포 기능을 제공하여 사용자가 다양한 아키텍처의 GPU 서버를 관리할 수 있는 유연성을 제공합니다. GIGABYTE는 NVIDIA 및 Canonical과의 협업을 통해 고급 하드웨어와 강력한 소프트웨어 도구를 결합하여 엔드 투 엔드 확장 가능한 AI 인프라 관리 플랫폼을 제공합니다.클러스터를 개선하는 또 다른 방법은 MLOps 플랫폼인 Myelintek의 MLSteam을 사용하는 것입니다. MLSteam을 통해 AI R&D 팀은 개발 환경 구축에 추가로 시간과 비용을 들이지 않고도 전문 분야에 더 집중할 수 있습니다. 또한 데이터 주석, 모델 개발, 모델 제공 및 모델 재교육을 포함하여 교육 데이터 및 모델의 효과적인 관리를 가능하게 하여 AI 수명 주기 관리를 실현합니다. MLSteam은 또한 NVIDIA AI Enterprise의 모델 범주와 NIM을 지원하여 다양한 AI 연구 및 개발 요구 사항을 충족합니다. Retrieval-Augmented Generation(RAG)과 같은 고급 기능을 포함하여 고도로 맞춤화된 AI 모델 개발을 허용하는 반면, GPM 및 GIGABYTE의 고성능 GPU 서버는 다양한 가속기를 지원하여 AI R&D 팀의 소프트웨어 및 하드웨어 아키텍처 요구 사항을 충족합니다.

상세보기

[GIGABYTE] 데이터 센터를 AI에 대비시키는 방법? 2부: 클러스터 컴퓨팅

2024.09.11

[GIGABYTE] 데이터 센터를 AI에 대비시키는 방법? 2부: 클러스터 컴퓨팅

상세보기

[GIGABYTE] 데이터 센터를 AI에 대비시키는 방법? 1부: 고급 냉각

2024.08.08

[GIGABYTE] 데이터 센터를 AI에 대비시키는 방법? 1부: 고급 냉각

        직접 액체 냉각(DLC) 또는 직접 칩(D2C) 액체 냉각 냉각 루프를 통해 액체 냉각수를 서버로 파이프하고 냉각판을 통해 핵심 구성 요소의 열을 흡수하는 액체 냉각은 AI 프로세서의 요구 사항 덕분에 그 어느 때보다 빠르게 인기를 얻고 있다는 데 의심의 여지가 없습니다. 이미 언급했듯이 많은 AI 슈퍼컴퓨터는 액체 냉각을 염두에 두고 설계되었습니다. 주요  클라우드 서비스 공급업체(CSP) 를 포함한 데이터 센터 운영자 가 인프라를 업그레이드하여 액체 냉각을 채택함에 따라 이것이 업계의 새로운 표준이 되는 것은 시간 문제일 수 있습니다.     침지 냉각: 단상 및 2상 미리 계획하고 인프라를 미래에 대비하고자 하는 데이터 센터 운영자에게 침지 냉각은 액체 냉각에 이어 논리적으로 다음 단계입니다. 서버를 비전도성 냉각수 욕조에 직접 담그면 구성 요소의 열이 CDU(  단상 침지 냉각 의 경우 )를 통해 또는 탱크 내부의 냉각수의 자연 증발( 2상 침지 냉각 )을 통해 분산될 수 있습니다. 침지 냉각은 PUE를 1.02로 낮출 수 있으며, 이는 컴퓨팅에 사용되는 전력보다 2%만 더 많은 전력이 냉각에 필요하다는 것을 의미합니다. 그러나 진입 장벽은 물리적 인프라에서 안전 허가에 이르기까지 데이터 센터의 많은 측면이 침지 냉각을 위해 특별히 준비되어야 한다는 것입니다.     GIGABYTE의 독점적인 디자인과 RDHx를 통한 더 나은 공기 냉각 AI 워크로드에 대비하기 위해 액체 또는 침지 냉각을 고려하는 것이 절대적으로 권장되지만, 프로세스가 복잡할 수 있다는 것은 충분히 이해할 수 있으며, 따라서 공랭식 서버가 가까운 미래에도 여전히 주요 컴퓨팅 소스가 될 것입니다. 다행히도 GIGABYTE의 공랭식 솔루션은 최고의 성능과 최적의 냉각을 염두에 두고 설계되었습니다.

상세보기

[GIGABYTE] NYCU의 Advanced IC Lab이 대만 반도체 산업과 인재를 향상시키기 위해 업그레이드되었습니다.

2024.08.08

[GIGABYTE] NYCU의 Advanced IC Lab이 대만 반도체 산업과 인재를 향상시키기 위해 업그레이드되었습니다.

  National Yang Ming Chiao Tung University(NYCU)의 Advanced IC Lab은 대만의 반도체 산업과 인재 양성을 강화하기 위해 업그레이드되었습니다. GIGABYTE Technology와 파트너의 기여로 이 랩은 이제 최첨단 서버를 갖추고 있어 컴퓨팅 능력과 교육 성과를 모두 개선하고 있습니다. 새로운 인프라는 IC 설계의 효율적인 테스트를 가능하게 하고 고급 학습과 연구를 지원하여 반도체 산업의 미래 혁신을 주도할 인재를 육성합니다.   제조 기술의 발전으로 컴퓨팅 수요가 증가했고, 글로벌 공급망과 결합되면서 반도체 산업에 큰 영향을 미쳤습니다. 그 결과, 반도체 인재 양성은 전 세계적으로 중요한 목표가 되었습니다. 서버 R&D와 제조에 강점이 있는 GIGABYTE Technology는 대만 반도체 산업의 인재 양성에 강력한 추진력을 불어넣고자 산학 협력을 계속하고 있습니다.프로세스 노드의 발전으로 트랜지스터 밀도가 계속 증가하여 더 큰 성능 요구 사항을 충족하면서 한계를 뛰어넘으면서 IC 설계에서 획기적인 진전을 찾는 것이 반도체 산업에 매우 중요합니다. 그러나 인재 양성에는 상당한 시간 투자가 필요합니다. 따라서 고등 교육 기관은 반도체 산업에 진출하고자 하는 학생들이 빠르게 변화하는 기술 혁신을 따라잡을 수 있도록 돕는 것이 의무입니다.NYCU는  엄격한 교육과 연구를 통해 반도체 설계 분야에 대한 지식을 계속 심화하여 산업에 즉각적인 영향을 미칠 수 있는 반도체 인재를 양성하고 있습니다. "IC 설계 과정 부담은 상당히 높습니다. 해외 최고 대학의 유사한 과정보다 더 높아서 업계의 인재 수요에 빠르게 대응할 수 있습니다." National Yang Ming Chiao Tung University(NYCU) 부사장이자 NYCU 전자 연구소 교수인 Chen-Yi Lee 박사의 말입니다. Chen-Yi Lee 박사(오른쪽)가 칩 발전에 대해 논의하고 있습니다(출처: TechNews) GIGABYTE가 랩 업그레이드에 나섭니다. IC 설계 산업이 계속해서 혁신함에 따라 이 분야의 학생 수가 기하급수적으로 증가하고 있습니다. 그러나 자원에 대한 부담으로 인해 연구실은 부족하고 오래된 장비라는 문제에 직면해 있습니다. 인터뷰에서 이 박사는 새로운 서버 아키텍처가 NYCU의 IC 설계 분야에 미칠 수 있는 영향에 대해 설명했습니다. "서버 칩이 더욱 발전함에 따라 이러한 새로운 칩을 사용하여 새로운 IC 설계를 테스트하는 데 걸리는 시간을 단축할 수 있습니다. 이전에는 몇 시간이 걸리던 작업을 IT 하드웨어를 업그레이드하면 몇 분 만에 완료할 수 있습니다."라고 이 박사는 말했습니다. 우연히 GIGABYTE는 NYCU Advanced IC Design Lab에서 더 큰 컴퓨팅 하드웨어의 필요성에 대해 알게 되었습니다. 그래서 GIGABYTE는 AMD, Micron Technology, Nanya Technology, Phison Electronics, Samsung Electronics와 협력하여 랩을 위한 최첨단 서버를 완벽하게 조립했습니다.GIGABYTE는 두 대의 GIGABYTE  R282-Z91  범용 서버와 여섯 대의  H282-ZC1  고밀도 서버를 공급했으며, 각각 IC Design Lab의 클러스터에서 다른 역할을 했습니다. R282-Z91 서버는 스토리지에 사용되었고, H282-ZC1 서버는 서버당 네 개의 노드가 있는 컴퓨팅 플랫폼 역할을 하여 여러 사용자의 까다로운 컴퓨팅 요구를 충족했습니다.           업그레이드된 경험으로 학습이 향상됩니다. 여러 사용자를 위한 원활한 성능 서버 아키텍처를 계획할 때 향후 확장에 대한 필요성이 고려되었습니다. 이는 컴퓨팅 리소스를 넘어 데이터 전송에도 적용됩니다. 따라서 서버 아키텍처는 Phison의 고급 SSD 기술과 페어링된 두 대의 데이터 서버(R282-Z91)로 구성되어 500TB 이상의 저장 용량을 제공합니다. 그리고 이 설정은 20Gbps "본딩" 네트워크 스위치와 결합되어 노드 간 통신 대역폭을 효과적으로 증가시킵니다.무거운 컴퓨팅 성능은 6개의 H282-ZC1 고밀도 서버의 컴퓨팅 노드에서 제공됩니다. IC 설계 랩의 수석 관리자인 Lin-hung Lai는 "저희는 IC 설계를 하기 때문에 주요 컴퓨팅 초점은 CPU에서 이루어집니다."라고 말했습니다. "따라서 높은 멀티코어 CPU 노드는 설계 프로세스를 상당히 가속화할 수 있습니다." 그리고 GIGABYTE 서버의 각 CPU 노드에는 1TB의 DDR4 메모리가 장착되어 대규모 IC 설계의 증가하는 요구 사항을 처리할 수 있습니다. 시니어 랩 매니저 린-헝 라이는 우리에게 GIGABYTE 서버의 전용 서버 룸 공간을 소개해 주었는데, 이는 관리를 더욱 편리하게 만들어 주었습니다. (출처: TechNews)   서버를 설치한 후, 그 영향은 상당했고 업그레이드를 통해 더 다양한 사용이 가능해졌습니다. 수업 시간 외에도 학생들은 고품질 환경에서 연습하고 작업을 계속할 수 있어 학습 과정이 크게 향상되었습니다. 긴 대기 시간 없이 학생들은 더 복잡한 디자인 연습을 수행할 수 있었고 생성된 작업의 품질이 상당히 향상되었습니다.이러한 개선은 6개의 멀티노드 컴퓨팅 서버와 2개의 스토리지 서버의 CPU 선택 덕분에 가능했습니다. 컴퓨팅 밀도가 높은 H282-ZC1 서버는 TSMC의 7nm 공정을 사용하는 AMD "Zen 4" 코어를 기반으로 하는 AMD EPYC 7003 시리즈 CPU를 사용합니다. 이 CPU 시리즈는 최대 64개의 코어를 갖추고 있으며 PCIe 4.0을 사용하여 빠른 처리량을 제공하며, 빠르고 안정적인 연결을 위해 128GB/s의 대역폭에 도달할 수 있습니다. 이 6개의 고밀도 H282-ZC1 서버에는 2,304개의 CPU 코어(4,608개의 스레드)가 들어 있습니다. 빠른 고밀도 스토리지를 위해 R282-Z91이 선택되었으며, 두 서버는 총 372.48TB의 스토리지를 지원할 수 있습니다. 6개의 컴퓨팅 서버 중 하나의 하드웨어: 안건 모델 수량 섬기는 사람 기가바이트 H282-ZC1 1 CPU AMD 에픽 7763(64C/128T) 8 메모리 난야 32GB DDR4-3200 128 저장 파이슨 2.5인치 7.68TB SATA SSD 4 랜 CLN4832 Intel ® 82599ES 10Gb/s 2포트 4 두 개의 저장 서버 구성: 안건 모델 수량 섬기는 사람 기가바이트 R282-Z91 1 CPU AMD 에픽 7543(32C/64T) 2 메모리 난야 32GB DDR4-3200 8 저장 Phison 2.5인치 1.92T ESR1720 SATA SSD 1 Phison 2.5인치 7.68T ESR1710 SATA SSD 24 레이드 9364-8i 2G 1 랜 CLN4832 Intel ® 82599ES 10Gb/s 2포트 1       최첨단 하드웨어를 보유하는 것은 한 가지 일이지만, 그 리소스를 어떻게 활용할지도 마찬가지로 중요합니다. 많은 헤비 유저가 동시에 발생시키는 혼잡을 완화하기 위해 IC Design Lab은 리소스를 보다 효과적으로 활용할 필요가 있었기 때문에 자체 서버 트래픽 제어 시스템을 구현했습니다. 그렇게 함으로써 리소스를 더 잘 할당하고 조정할 수 있습니다. 결국 사용자 경험이 향상되었습니다. 217명의 온라인 사용자에게 IT 리소스가 할당됩니다. (출처: NYCU IC Lab) 부족한 하드웨어에서 놀라운 컴퓨팅 성능으로 IC 연구실의 수석 관리자인 린훙 라이는 "리소스를 더 잘 할당함으로써 단일 서버에 과부하가 걸리는 일이 크게 줄어들었고, 서버 상태를 모니터링할 수 있게 되었습니다."라고 말했습니다. "이 업그레이드 이전에는 데스크톱 PC가 학생들이 원격으로 연결하여 교대로 사용해야 하는 서버 역할을 했습니다. 그러나 각 컴퓨터의 메모리가 8GB에 불과하여 구식이 되었고 학습 과정이 매우 느렸습니다. 이는 APR(자동 배치 및 경로)이라는 EDA 프로세스를 사용하여 집적 회로를 만들 때 특히 문제가 되었습니다. 예를 들어, 이전에는 한 시간이 걸리던 작업을 이제 5분 만에 완료할 수 있습니다. 엄청난 개선입니다."가장 큰 변화는 학생들이 더 이상 개별 컴퓨터에 원격으로 연결하지 않고, 대신 고성능 컴퓨팅 환경에서 작동하는 서버에 연결한다는 것입니다. 또한 새로운 연구실 서버는 학기당 약 1,500개의 계정을 만들 수 있습니다. 피크 타임에는 최대 500명의 사용자가 동시에 온라인에서 작업하며, 이를 통해 IC 분야의 학습 과정이 크게 향상됩니다.     재능과 기여는 결코 사라지지 않습니다 인프라 문제를 해결하면 대학생의 학습 효율이 높아져 개인적으로 더 큰 속도로 발전할 수 있습니다. Advanced IC Design Lab에서 양성된 인재는 반도체 산업에 귀중한 자산으로 합류하여 이 산업을 발전시킬 준비가 되었습니다. Lee 박사는 이전 학생들이 남긴 학습 성과와 연구 데이터가 잘 보존되어 미래의 딥 러닝 교육을 위한 최상의 데이터로 사용될 수 있다고 밝혔습니다. 랩의 다음 단계는 AI 개발, Chip LLM 또는 Chip GPT 설계가 될 수 있으며, 이는 IC 설계 교육에서 새로운 이정표를 만들 것입니다.

상세보기

[GIGABYTE] GIGABYTE 서버를 통한 SupremeRAID™ BeeGFS™ 성능

2024.03.05

[GIGABYTE] GIGABYTE 서버를 통한 SupremeRAID™ BeeGFS™ 성능

      요약 Graid Technology 의 SupremeRAID™는   GPU 기반 가속을 사용하여 매우 높은 RAID 성능을 제공합니다. SupremeRAID™를 사용하면 ASIC 기반 하드웨어 RAID 및 CPU 기반 소프트웨어 RAID를 포함한 다른 RAID 제품에 내재된 성능 제한을 피할 수 있습니다. 이 문서에서는 SupremeRAID™가 고성능 컴퓨팅(HPC)용으로 개발 및 최적화된 병렬 파일 시스템인 BeeGFS 의 성능을 어떻게 향상시키는지 살펴봅니다  . StorageBench 및  IOzone을 사용하여 성능 측정을 수행했습니다 . StorageBench는 네트워크 성능과 관계없이 기본 파일 시스템 및 장치의 스트리밍 처리량을 측정하는 BeeGFS 벤치마크입니다. IOzone은 실제 작업 부하를 시뮬레이션하기 위해 광범위한 IO 작업을 테스트하고 전체 시스템에서 성능 병목 현상을 찾도록 설계되었습니다. 테스트는 2개의 스토리지 노드와 4개의 클라이언트 노드로 작동하는 GIGABYTE 서버를 사용하여 수행되었습니다. 조사 결과는 다음 페이지에 요약된 바와 같이 뛰어난 저장 공간과 BeeGFS 성능을 보여 주며, 이는 데이터 보호를 위해 SupremeRAID™를 선택하는 것이 성능을 극대화하는 매우 효과적인 방법임을 입증합니다. 1. 4개의 RAID 5 그룹으로 구성된 12개의 7GB/s SSD로 구성된 2세트. 2. 총 400G에 대한 4개의 100G 이더넷 링크.   원시 스토리지 성능을 측정하도록 설계된 BeeGFS StorageBench 벤치마크는 130.35GB/s의 인상적인 SupremeRAID™ 5 읽기 속도와 70GB/s의 쓰기 속도를 보여줍니다. 또한 StorageBench RAID 5 읽기 성능은 네트워크 병목 현상이 발생한 IOzone 벤치마크보다 읽기 및 쓰기 성능이 훨씬 높아 이론적인 성능 한계에 근접해 SupremeRAID™의 뛰어난 스토리지 성능을 보여줍니다. 네트워크 전송 오버헤드를 포함하는 실제 클라이언트 워크로드를 시뮬레이션하도록 설계된 IOzone 벤치마크도 마찬가지로 인상적입니다. 256개의 스레드로 읽기 및 쓰기 속도는 각각 45.10GB/s 및 42.97GB/s에 도달합니다. 중요한 것은 이 수치가 400G 네트워크의 이론적 한계(50GB/s)에 접근한다는 점입니다. 이는 SupremeRAID™가 4개의 100G 네트워크 링크로 구성된 400G 네트워크를 거의 완벽하게 활용할 수 있음을 의미합니다.     테스트 배경 하드웨어: 스토리지 노드(2개)• 서버: GIGABYTE  S183-SH0-AAV1  x 1• 프로세서:  Intel® Xeon® Platinum 8468H  48C 2.1GHz x 2• 메모리: Micron MTC20F2085S1RC48BA1 DDR5 32GB 4800MHz x 16• 네트워크 카드: ConnectX-5 Ex MCX556A-EDAT EDR x 1• SSD: SAMSUNG MZTL23T8HCLS-00A07 3.84TB x 16• RAID 컨트롤러: RAID 컨트롤러:  SupremeRAID™ SR-1010  x 1 하드웨어: 클라이언트 노드(4개)• 서버: GIGABYTE H242-Z10  x 4(4개- 노드 시스템)• 프로세서:  AMD EPYC 7663  56C x 2• 메모리: Micron HMA82GR7CJR8N-XN DDR4 16GB 3200MHz x 16• 네트워크 카드: ConnectX-5 Ex MCX556A-EDAT EDR x 1 소프트웨어: 스토리지 노드• 운영 체제: Red Hat Enterprise 8.8• 커널: 4.18.0-477.13.1.el8_8.x86_64• BeeGFS: 7.3.3• SupremeRAID™ 드라이버: 1.5.0• OFED: 5.8-2.0.3.0소프트웨어: 클라이언트 노드• 운영 체제: Red Hat Enterprise 8.8• 커널 : 4.18.0-477.13.1.el8_8.x86_64• BeeGFS: 7.3.3• SupremeRAID™ 드라이버: 1.5.0• OFED: 5.8-2.0.3.0• IOzone: 3-506.x86_64 소프트웨어: 클라이언트 노드 • 운영 체제: Red Hat Enterprise 8.8 • 커널: 4.18.0-477.13.1.el8_8.x86_64 • BeeGFS: 7.3.3 • SupremeRAID™ 드라이버: 1.5.0 • OFED: 5.8-2.0.3.0 • IO 영역: 3-506.x86_64     클러스터 아키텍처 네트워킹각 스토리지 노드에는 듀얼 포트 100G 네트워크 카드가 장착되어 있으며, 각 클라이언트 노드에는 단일 포트 100G 네트워크 카드가 장착되어 있습니다. 2개의 스토리지 노드와 4개의 클라이언트 노드는 모두 100G 스위치를 사용하여 상호 연결됩니다. 스토리지각 스토리지 노드에는 16개의 NVMe 드라이브가 장착되어 있으며, 그 중 8개는 CPU0에 있고 나머지 8개는 CPU1에 있습니다. CPU0에 위치한 단일 SupremeRAID™ SR-1010 RAID 컨트롤러는 16개의 NVMe 드라이브를 모두 관리합니다. 두 개의 MDS(메타데이터 서비스)가 설정되어 있으며 각각은 두 개의 드라이브로 구성된 RAID1 그룹에서 지원됩니다. 또한 각각 6개의 드라이브를 통합하는 2개의 RAID 5 그룹이 구성되었습니다. 각 RAID 5 그룹은 3개의 개별 OSS(객체 스토리지 서비스)를 위한 3개의 가상 드라이브를 생성했습니다. 전체적으로 클러스터는 4개의 MDS와 12개의 OSS로 구성됩니다.   프로필 테스트 BeeGFS StorageBench클러스터를 성공적으로 구성한 후 내장된 BeeGFS StorageBench 도구를 활용하여 NVMe 드라이브 및 RAID 컨트롤러의 성능을 측정했습니다. 평가 프로세스는 테스트 파일 구축을 목표로 하는 쓰기 테스트로 시작되었습니다. 이 절차에는 1M의 블록 크기와 64개의 스레드가 사용되었습니다. 또한 VFS 캐시의 잠재적인 영향을 우회하고 이후 스토리지 시스템의 실제 성능 기능을 공개하기 위해 --odirect 옵션을 통합했습니다.     쓰기 테스트가 완료되면 읽기 테스트 단계로 전환했습니다.     IOzone현실적인 워크로드에서 클러스터 성능을 평가하기 위해 IOzone을 활용하여 다양한 I/O 깊이의 4개 클라이언트 노드에서 I/O를 생성했습니다. 여기에는 각 스레드에 대해 1M 블록 크기와 16GB 파일 크기로 읽기 및 쓰기 워크로드를 모두 수행하는 것이 포함되었습니다. 또한 직접 I/O를 허용하도록 -I 옵션이 지정되었습니다.   테스트 결과 원시 스토리지 성능을 측정하도록 설계된 BeeGFS StorageBench 벤치마크는 RAID 5 보호 환경에서 인상적인 결과를 보여줍니다. 이 벤치마크 기간 동안 관찰된 읽기 및 쓰기 속도는 "BeeGFS StorageBench 결과 대 IOzone 결과"라는 제목의 차트에 설명된 대로 4개의 RAID 5 그룹에서 각각 130.35GB/s 및 70GB/s로 최고 기록되었습니다. StorageBench RAID 5 읽기 성능은 이론적 성능 한계에 근접하며 네트워크 병목 현상이 있는 IOzone 벤치마크보다 읽기 및 쓰기 성능이 훨씬 높아 SupremeRAID™의 뛰어난 스토리지 성능을 보여줍니다. 이와 대조적으로 IOzone 벤치마크는 네트워크 전송 오버헤드를 통합하여 실제 클라이언트 워크로드를 시뮬레이션합니다. 이 시나리오의 성능은 StorageBench 결과보다 낮지만 여전히 인상적입니다. 읽기 및 쓰기 속도는 256개의 스레드로 각각 45.10GB/s 및 42.97GB/s에 도달합니다. 중요한 것은 이 수치가 400G 네트워크(50GB/s)의 이론적인 한계에 접근한다는 점입니다. 이는 SupremeRAID™가 400G 네트워크(4 x 100G)를 거의 완벽하게 활용할 수 있음을 의미합니다. BeeGFS StorageBench 결과와 IOzone 결과 비교     다양한 스레드 수에 따른 IOzone 읽기/쓰기 성능 요약 요약하면 SupremeRAID™는 원시 스토리지 및 실제 작업 부하 시나리오에서 높은 성능을 제공합니다. BeeGFS StorageBench 결과에서 알 수 있듯이 SupremeRAID™는 RAID5 보호 하에서 매우 높은 스토리지 성능 수준을 달성합니다. 또한 IOzone 결과는 SupremeRAID™가 고속 네트워크 인프라를 최적으로 활용하면서 실제 클라이언트 작업 부하를 효율적으로 처리할 수 있음을 보여줍니다. GIGABYTE S183-SH0과 결합하면 밀도가 매우 높고 효율적인 병렬 파일 시스템 솔루션을 제공할 수 있습니다. 32개 베이가 모두 채워지면 1U당 최대 398.32TB를 제공할 수 있어 고성능 컴퓨팅(HPC) 및 인공 지능(AI) 애플리케이션에 이상적인 솔루션입니다. SupremeRAID™는 GIGABYTE S183-SH0과 함께 뛰어난 성능과 최대의 스토리지 효율성을 결합하여 HPC/AI 시나리오를 위한 최고의 선택으로 자리매김했습니다.     결론 Graid Technology의 SupremeRAID™는 GPU 기반 가속을 사용하여 매우 높은 RAID 성능을 제공합니다. SupremeRAID™를 사용하면 ASIC 기반 하드웨어 RAID 및 CPU 기반 소프트웨어 RAID를 포함한 다른 RAID 제품에 내재된 성능 제한을 피할 수 있습니다. SupremeRAID™ 소프트웨어 버전 1.5에서는 SSD 성능의 효율적인 활용이 향상되어 상당한 이점을 제공합니다. StorageBench 및 IOzone 벤치마크 테스트에서는 SupremeRAID™ 및 GIGABYTE 서버 사용 시 높은 스토리지 및 BeeGFS 성능을 확인했습니다. StorageBench 결과는 16개 SSD의 집합과 일치하는 스토리지 성능과 이론적 한계인 400G에 접근하는 BeeGFS 성능을 보여줍니다. BeeGFS에 SupremeRAID™ 및 GIGABYTE를 사용하면 다음과 같은 성능 이점을 얻을 수 있습니다. • 최대 130.35GB/s의 스토리지 성능.• 최대 45.10GB/s BeeGFS 성능.     배포 세부정보 모든 노드의 경우모든 서버에 RHEL 8.8을 설치합니다.네트워킹 설정1. 모든 서버에 OFED 패키지를 설치합니다.     2. 서버에서 InfiniBand 서브넷 관리자를 구성하고 시작합니다.     3. InfiniBand(IB) 상태를 확인합니다.     스토리지 노드 SupremeRAID™ 드라이버 설치 1. 사전 설치 프로그램과 설치 프로그램을 다운로드합니다.     2. 사전 설치 프로그램을 실행하여 필요한 패키지를 설치합니다.     3. 설치 프로그램을 실행하여 SupremeRAID™ 드라이버를 설치합니다.     4. SupremeRAID™ 서비스를 활성화하려면 라이센스 키를 적용하세요.     BeeGFS 패키지 설치 1. 모든 서버에 BeeGFS 저장소를 추가합니다.     2. BeeGFS 패키지를 설치합니다.     BeeGFS용 RAID 어레이 설정 1. SSD NUMA 위치를 확인합니다. 8개의 드라이브가 NUMA0에 있고 8개가 NUMA1에 있는지 확인하세요.     2. 16개의 NVMe 드라이브를 물리적 드라이브로 생성합니다.     3. 두 개의 RAID1 그룹과 두 개의 RAID5 그룹을 구성합니다.     4. 2개의 MDS 및 6개의 OSS용 가상 드라이브 생성     5. MDS(ext4) 및 OSS(xfs)에 적합한 파일 시스템으로 가상 드라이브를 포맷합니다.     BeeGFS 관리 서비스 설정     스토리지 노드에 여러 개의 BeeGFS MDS 및 OSS 설정1. 2개의 MDS 폴더와 6개의 OSS 폴더를 생성합니다.     2. beegfs-meta 구성 파일을 MDS 폴더에 복사합니다.     3. 각 MDS에 대해 beegfs-meta TCP/UDP 포트를 수정하여 포트 충돌을 방지합니다.     4. beegfs-storage 구성 파일을 OSS 폴더에 복사합니다.     5. 포트 충돌을 방지하기 위해 각 OSS에 대한 BeeGFS 스토리지 TCP/UDP 포트를 수정합니다.     6. 인터페이스 파일을 /etc/beegfs 폴더에 넣습니다.     7. BeeGFS 마운트 지점을 설정합니다.     8. MDS 및 OSS를 초기화합니다.     9. MDS 및 OSS 서비스를 시작합니다.     10. 방화벽의 포트를 엽니다.     11. 방화벽 서비스를 다시 로드합니다.     클라이언트 노드 BeeGFS 패키지 설치 1. 모든 서버에 BeeGFS 저장소를 추가합니다.     2. BeeGFS 클라이언트 패키지를 설치합니다.     BeeGFS 클라이언트 설정1. beegfs-client-autobuild.conf 파일에서 클라이언트 서버의 빌드 옵션을 구성합니다.     2. 클라이언트 커널 모듈을 다시 빌드합니다.     3. 클라이언트 서버에서 클라이언트 서비스를 초기화합니다.     4. BeeGFS 클라이언트 서비스를 다시 시작합니다.     BeeGFS 튜닝 객체 스토리지 서비스     메타데이터 서비스     고객     파일 시스템     참고자료 • BeeGFS 설치 가이드 • BeeGFS 다중 모드 구성 가이드 • BeeGFS 스토리지벤치 • IO존     소개       SupremeRAID™ SupremeRAID™ 차세대 GPU 가속 RAID는 기존 RAID 병목 현상을 제거하여 NVMe SSD의 성능과 가치를 최대한 활용합니다. PCIe Gen 3, 4, 5 서버를 위한 세계에서 가장 빠른 RAID 카드인 SupremeRAID™는 탁월한 성능을 제공하는 동시에 확장성을 높이고 유연성을 향상시키며 총 소유 비용(TCO)을 낮추도록 설계되었습니다. 단일 SupremeRAID™ 카드는 최대 28M IOPS 및 260GB/s의 성능을 발휘합니다. • 유연성 및 미래 대비 – 소프트웨어만을 사용하여 추가된 기능을 통해 비교할 수 없는 유연성을 제공합니다. • 세계 기록 성능 – 고성능 애플리케이션을 구동하는 속도를 제공합니다. • CPU 리소스 확보 - RAID 계산을 SupremeRAID™ GPU 카드로 오프로드합니다. • 플러그 앤 플레이 기능 – 케이블 레이아웃을 다시 구성할 필요 없이 열려 있는 PCle 슬롯에 추가할 수 있습니다. • 확장성이 뛰어난 애플리케이션 – 직접 연결된 NVMe SSD를 최대 32개까지 쉽게 관리할 수 있습니다. • 사용자 친화적인 관리 - 성능 향상을 위해 메모리 캐싱에 의존하지 않습니다.     BeeGFS 및 StorageBench ThinkParQ®에서 개발 및 설계한 BeeGFS 병렬 파일 시스템은 성능 지향 환경 및 작업 부하에 대해 고성능, 사용 편의성 및 간단한 관리 기능을 제공합니다. 일반적인 예로는 고성능 컴퓨팅, 인공 지능, 미디어 및 엔터테인먼트, 석유 및 가스, 생명과학 등이 있습니다. BeeGFS는 시중의 다른 병렬 파일 시스템보다 배포 및 관리가 더 쉽다고 여겨지는 경우가 많으며 StorageBench 스토리지 벤치마킹 도구가 포함되어 있습니다.     IO존 IOzone 종합 벤치마크는 읽기, 다시 읽기, 쓰기, 다시 쓰기 및 무작위 혼합을 포함한 다양한 작업을 사용하여 파일 시스템 성능을 테스트합니다. 테스트는 명령줄을 사용하여 지정된 옵션에 따라 수행되며 다양한 유형과 조합의 테스트 작업이 지원됩니다.

상세보기

[GIGABYTE] 체코 최대 검색 엔진은 GIGABYTE 솔루션을 기반으로 인프라를 구축합니다.

2023.12.29

[GIGABYTE] 체코 최대 검색 엔진은 GIGABYTE 솔루션을 기반으로 인프라를 구축합니다.

활기차고 성실한 세즈남 마스코트 크라스티 Seznam과 그들이 제공하는 서비스 Seznam.cz  는 체코 공화국의 인터넷 웹 포털이자 검색 엔진 리더입니다. Seznam의 비전은 모든 사용자를 위한 콘텐츠, 광고, 지식, 소셜 및 커뮤니케이션 플랫폼이 되는 것입니다. 주로 자사의 제품 혁신이 현재 및 미래의 경쟁업체를 상대로 성공하고 체코 온라인 시장에서 리더로서의 위치를 유지하는 데 도움이 될 것이라고 믿는 기술 회사입니다. 매월 최대 600만 명이 방문하는 Seznam의 메인 페이지에는 검색 엔진, 이메일 서비스, 뉴스, TV 프로그램, 일기예보 등이 포함되어 있습니다. 체코 공화국의 모든 인터넷 사용자 중 거의 절반이 Seznam.cz를 다음과 같이 설정했습니다. 그들의 홈페이지. 모든 제품과 서비스를 통해 Seznam은 체코 인터넷 사용자의 95%에 도달합니다.     체코 국경 밖의 세즈남 - 관광객을 위한 높은 가치의 전 세계 지도 서비스 Seznam이 2013년부터 개발해 온 서비스 중 하나는 Mapy.cz입니다. Google과 같은 외국 경쟁업체와 비교할 때 체코 애플리케이션은 커뮤니티 기반 지리 데이터베이스를 사용하여 고전적인 인쇄 지도처럼 보이는 지도를 만듭니다. 이 애플리케이션에서는 전 세계 개별 국가를 다운로드하여 오프라인으로 사용할 수 있습니다. 이 애플리케이션은 세계 지도를 볼 때뿐 아니라 경로를 계획하고 검색할 때에도 오프라인 모드에서 작동합니다. 모바일 애플리케이션에는 체코어 외에도 다양한 언어로의 현지화가 포함되어 있습니다. 국내외 자원봉사자 커뮤니티가 이들 언어로의 번역에 협력하고 있습니다. 최고 수준의 애플리케이션 활성 사용자 수는 400만 명을 넘습니다.체코 영토의 적용 범위는 자체 지도 데이터를 기반으로 하며, 나머지 세계는 프로젝트 OpenStreetMap 데이터에서 가져옵니다. 이 애플리케이션의 많은 기능에는 관광 및 교통 내비게이션과 자동차, 대중 교통, 자전거, 도보 및 기타 방법을 사용하는 경로 플래너가 포함됩니다. 이 애플리케이션에는 자체 설명이나 Wikipedia의 설명 및 사용자가 직접 업로드한 사진과 함께 많은 관심 지점이 포함되어 있습니다. 다른 글로벌 지도 앱과 달리 글로벌 관광 지도와 글로벌 겨울 지도가 특징으로, 겉모습은 고전적인 인쇄 지도와 비슷합니다. Mapy.cz로 여행 계획을 세우는 것은 쉽습니다. Seznam이 직면한 초기 하드웨어 문제 Seznam의 하드웨어 관리자인 Miroslav Bezdička는 이렇게 설명합니다. “우리 서비스의 수와 특성으로 인해 지속적인 작업을 담당하는 서버의 수가 점차 증가했습니다. 처음에는 잘 알려진 공급업체의 표준 랙 서버를 다양한 구성으로 사용했습니다. 약 10,000대의 서버 규모에 도달하고 가상화 및 컨테이너에 대한 수요가 엄청나게 증가하자 이 솔루션은 더 이상 적합하지 않았습니다.다양한 제조업체의 다양한 펌웨어의 복잡성과 다양한 제조업체의 서버 조정을 위한 단일 도구의 부족으로 인해 우리는 점차 기본적인 원격 관리 및 모니터링 기능만 사용하는 자체 도구를 개발하게 되었고, 이를 통해 보다 효율적으로 작업할 수 있었습니다. 우리의 모든 서버와 함께.“시간이 지남에 따라 우리는 서버 공급업체의 독점 도구로부터 독립했으며, 우리가 사용한 가상화와 함께 서버 구성 수를 줄일 수 있었습니다.“동시에 OCP(Open Compute Project)가 설립되었고, 이는 우리가 자체 하드웨어를 개발하도록 영감을 주었습니다. 우리의 경험을 통해 우리는 우리에게 필요한 기능이 무엇인지 정확히 알았고 서버를 시장에 판매하지 않을 것이기 때문에 이를 통해 우리의 정확한 요구 사항을 충족하는 최소한의 비용 효율적인 서버 설계를 개발할 수 있었습니다. 우리가 사용하는 대부분의 부품은 부품 제조업체에서 직접 공급되지만 가용성으로 인해 가능한 한 대체 소스 옵션을 선택하고 있습니다."     GIGABYTE 하드웨어가 제공하는 솔루션 Seznam은 현재 자체 서버 설계의 4세대를 실행하고 있습니다. 그리고 3세대부터 GIGABYTE의 마더보드를 사용해 왔습니다.Bezdička 씨는 다음과 같이 설명합니다. “GIGABYTE는 세계적으로 유명하고 입증된 컴퓨터 하드웨어 제조업체로서 고품질 제품을 제공합니다. 또한 개발 부서의 직접적인 탁월한 지원 덕분에 우리는 서버에서 사용하는 독점 인터페이스에 필요한 모든 정보를 보유하고 있습니다. 사용자 정의 수정 옵션이 있지만 가능한 한 표준 구성 요소를 사용하고 GIGABYTE와 협력하여 이러한 표준 구성 요소의 필수 기능 개발에 참여하려고 노력합니다. 우리가 표준 구성 요소를 사용한다는 사실은 유연하고 빠른 펌웨어 업데이트를 보장합니다.”현재 GIGABYTE 하드웨어를 기반으로 하는 5,000개 이상의 서버는 모든 Seznam 애플리케이션에 안정적인 고성능 플랫폼을 제공합니다.GIGABYTE의 EMEA 지역 수석 영업 이사인 Thomas Yen은 다음과 같이 말합니다. “Seznam을 파트너로 삼아 컴퓨팅 인프라를 구축할 수 있는 최신 서버 기술을 제공하게 된 것을 자랑스럽게 생각합니다. Seznam 인터넷 서비스의 성공은 GIGABYTE가 고객이 성공적으로 구축하고 개선할 수 있는 안정적인 고품질 서버 플랫폼을 제공한다는 것을 입증합니다. 또한 적절한 인력과 자원이 함께 모여 놀라운 제품을 만들 때 대규모 국제 기업과 경쟁하는 것이 여전히 가능하다는 것을 보여줍니다. 우리는 Seznam이 더욱 성장하고 성공할 수 있도록 돕기 위해 Seznam과의 관계를 지속하는 데 전념하고 있습니다.” 체코 인터넷 사용자는 GIGABYTE 서버로 구축된 Seznam의 데이터 센터를 사용합니다. GIGABYTE 하드웨어를 기반으로 한 Seznam 인프라 Seznam의 자체 맞춤형 설계 서버에 통합된 GIGABYTE 서버 마더보드는 검색 엔진 인프라를 완벽하게 실행할 수 있는 지속 가능성과 비용 효율적인 솔루션을 제공합니다. 맞춤형으로 설계된 서버는 AMD EPYC™ 플랫폼용 GIGABYTE 서버 마더보드를 기반으로 합니다.Seznam은 자체적으로 맞춤 설계된 서버 외에도 웹 포털 인프라에 GIGABYTE 서버를 통합했습니다. 이러한 서버는 일상적인 서비스를 간소화하고 사용자에게 최적화된 검색 경험을 제공하기 위해 다양한 사용 사례를 제공합니다.서버 마더보드와 서버는 AMD EPYC™ 7003 시리즈 프로세서에서 실행되며 탁월한 성능, 효율성 및 확장성을 제공합니다. AMD EPYC™ 7003 시리즈 프로세서는 메인스트림 데이터 센터의 성능과 효율성에 대한 표준을 설정했습니다. DDR4 및 PCIe Gen4 기술에 대한 광범위한 애플리케이션 검증을 수행하고 데이터 센터 문제에 대한 성능이 뛰어나고 비용 효율적인 솔루션을 찾는 고객은 AMD EPYC™ 7003 프로세서 기반 서버에서 엄청난 가치를 찾을 수 있습니다. 7nm 프로세스 노드를 기반으로 하는 AMD EPYC 7003 시리즈 프로세서는 최대 64개의 코어와 128개의 스레드를 지원합니다. 또한 최대 3200MHz의 소켓당 최대 4TB DDR4 메모리를 지원합니다. CPU와 드라이브 또는 가속기 간의 높은 처리량을 위해 단일 소켓 시스템에서 128개의 고속 PCIe 4.0 레인을 사용할 수 있고 듀얼 소켓 시스템에서 최대 160개의 레인을 사용할 수 있습니다.그러나 Seznam은 EPYC™ 7003 플랫폼이 지원하는 최대 구성을 사용하지 않습니다. 일반적인 구성은 512GB 메모리와 24코어(48스레드) 프로세서입니다.Seznam의 인프라는 GIGABYTE의 R 시리즈 및 G 시리즈(GPU) 서버의 견고한 기반 위에 구축되었으며, 각 서버는 시스템 내에서 서로 다른 목적을 수행하도록 세심하게 구성되었습니다.스토리지 노드:GIGABYTE  R271-Z00은  스토리지 목적을 위한 견고한 구성 요소입니다. 컴팩트한 단일 소켓 설계를 갖춘 이 서버는 AMD EPYC 7003 시리즈 프로세서에서 최대 64개의 CPU 코어를 수용합니다. 스토리지 측면에서는 8개의 2.5" SATA/SAS 및 2개의 2.5" PCIe 3.0 NVMe 핫스왑 가능 베이를 자랑하여 유연하고 확장 가능한 스토리지 솔루션을 보장합니다.GPU 노드:고도의 병렬 컴퓨팅 작업 부하를 위해 설계된 GIGABYTE  G242-Z10 2U 폼 팩터에 탑재된 GPU 최적화 서버입니다. 해당 아키텍처는 추가 로우 프로파일 슬롯 2개와 OCP 2.0 메자닌 카드 1개와 함께 GPU용 최대 4개의 PCIe Gen 3.0 x 16 확장 슬롯을 지원합니다. 이 구성은 상당한 병렬 처리 기능을 촉진할 뿐만 아니라 네트워킹 또는 스토리지 확장의 통합도 허용합니다. G242-Z10은 전면에 3.5인치 SATA 핫스왑 HDD 베이 4개와 후면에 2.5인치 NVMe/SATA SSD 베이 2개를 통합하여 효율성을 더욱 향상시킵니다. 이는 GPU 가속 컴퓨팅을 위해 미세 조정된 시스템으로, AMD EPYC 프로세서가 탑재된 듀얼 소켓 구성에서 단일 소켓으로 이동하여 간접비를 전략적으로 줄입니다.집약적인 GPU 컴퓨팅과 최신 PCIe 기술을 지원하도록 맞춤 제작된 GIGABYTE  G493-ZB0은  다재다능함이 돋보입니다. 이 서버는 8개의 이중 슬롯 PCIe 5.0 x16 GPU를 갖추고 있으며 다양한 네트워킹 옵션과 스토리지 구성을 제공합니다. Seznam은 G493-ZB0 및  NVIDIA H100 Tensor Core GPU 의 성능을 활용하여  언어 모델을 위한 강력한 독립형 슈퍼컴퓨터를 구축했습니다. 이 구성은 NVIDIA H100 GPU의 모든 기능을 최적화된 NVIDIA AI Enterprise 및 NVIDIA HPC 소프트웨어와 결합하여 과학 시뮬레이션, 데이터 분석 및 AI 애플리케이션에서 비교할 수 없는 성능을 제공합니다.전반적으로 Seznam이 GIGABYTE 서버 제품을 전략적으로 사용하는 것은 최첨단 기술에 대한 헌신을 강조하여 특정 작업에 맞게 각 구성 요소를 최적화하고 고급 컴퓨팅 요구 사항에 맞는 강력한 인프라를 종합적으로 형성하는 것입니다.     결론 혁신적인 하드웨어 솔루션을 제공함으로써 Seznam과 GIGABYTE는 지속적으로 협력하고 경쟁력을 유지하면서 최대 성능과 안정성에 도달할 수 있는 최적의 플랫폼을 만들고 있습니다. 개발 및 구현의 여러 단계를 통해 Seznam은 고객에게 시장을 선도하는 서비스를 제공할 수 있습니다.

상세보기

[GIGABYTE] 의료 및 의료 산업에서 AI를 활용하는 방법

2023.10.25

[GIGABYTE] 의료 및 의료 산업에서 AI를 활용하는 방법

의료 및 의학 분야에서 일하고 계시다면 잠시 시간을 내어 인공 지능이 이 분야에 어떻게 새로운 기회를 가져왔는지, 그리고 그로부터 이익을 얻기 위해 사용할 수 있는 도구에 대한 심층 분석을 살펴보세요. 이 기사는 GIGABYTE Technology가 진행 중인 "Power of AI" 시리즈의 일부입니다. 이 시리즈는 최신 AI 동향을 조사하고 업계 리더들이 어떻게 이러한 활기 넘치는 패러다임 전환의 선두에 설 수 있는지 자세히 설명합니다.     소개 인공지능(AI)은 전 세계적으로 의료를 크게 향상시킬 수 있는 잠재력을 가지고 있습니다. 주된 이유는 현재 환자들이 적시에 의료 서비스를 받지 못하는 경우가 많기 때문입니다. 질병의 증상이 잘못 진단될 수도 있고, 개인의 병력을 고려한 맞춤형 치료가 필요할 수도 있습니다. 의료진은 업무에 푹 빠져 환자에게 충분한 주의를 기울이지 못할 수도 있습니다. 환자가 자신의 건강을 어떻게 관리하는지도 '블랙박스'다. 의사는 상담 후 환자의 행동을 통제할 수 없기 때문이다. 선진국의 인구가 노령화됨에 따라 의료 서비스의 품질을 향상시키기 위해서는 기계 학습(ML) 및 컴퓨터 비전과 같은 AI 기반 기술을 사용하는 것이 필수적입니다.자료:인공 지능(AI)이란 무엇입니까?머신러닝(ML)이란 무엇입니까?컴퓨터 비전이란 무엇입니까?     AI는 의료 산업에서 다양한 방식으로 활용될 수 있습니다. 단순화를 위해 "진단"과 "치료"라는 포괄적인 용어를 사용하여 두 가지 범주로 구분할 수 있습니다.진단은 질병의 징후를 최대한 빨리 발견하는 것입니다. 이를 위해 의사에게는 올바른 결정을 내리는 데 도움이 되는 AI 도구와 환자에게 더 많은 시간을 할애할 수 있는 편의성이 필요합니다. 치료는 환자를 어떻게 치료하고 돌보는가에 관한 것입니다. AI로 강화된 맞춤형 의료는 질병을 보다 효과적으로 치료할 수 있으며, 원격 모니터링 및 원격 의료 서비스는 회복 과정에서 환자를 도울 수 있습니다. 마지막으로, 인공지능과 고성능 컴퓨팅(HPC)을 활용하면 신약 개발이 더 빠르고 안전하며 정확해질 수 있습니다.인류 역사상 AI가 우리의 웰빙을 돌볼 수 있는 시대가 다가오고 있는 만큼, 글로벌 헬스케어 AI 시장이 아직 초기 단계에 있다는 점을 이해하는 것이 중요합니다. 흥미롭고 새로운 혁신은 병원에 가는 것이 무엇을 의미하는지에 대한 우리의 견해를 바꿀 수 있지만, 우리의 안전과 개인 정보를 보호하기 위해 규칙과 규정도 마련되어야 합니다. 환자 데이터의 사용은 환자 개인 정보 보호에 대한 법률 및 제한 사항의 범위 내에서 이루어져야 한다는 것은 말할 필요도 없습니다. 혁신적인 서비스는 관련 당국이 정한 모든 법적, 전문적, 윤리적 규정 준수 표준을 준수해야 합니다.다음 섹션에서는 진단 및 치료를 위한 AI 애플리케이션을 살펴보겠습니다. 또한 이러한 세계적인 추세를 활용하는 데 도움이 될 수 있는 서버 하드웨어 및 소프트웨어 솔루션을 소개합니다.리소스:고성능 컴퓨팅(HPC)이란 무엇입니까?서버란 무엇입니까?   진단: 의료 분석은 더 빠르고 정확하게 질병의 징후를 감지합니다. 의료 분석은 질병의 일반적인 지표를 정확히 찾아내기 위해 과거 의료 데이터를 조사하는 것을 의미합니다. 이는 의사가 더 정확하고 효율적으로 질병을 진단하는 데 도움이 될 뿐만 아니라 오래된 의료 기록에서 가치를 얻는 좋은 방법이기도 합니다. 대부분의 데이터는 컴퓨터 단층촬영(CT) 스캔, 엑스레이, 초음파, 자기공명영상(MRI) 등 의료 영상을 통해 수집되므로 AI가 의료 영상과 함께 작동하도록 교육하면 의료 분석에 도움이 될 것입니다. 팔.일반적으로 AI는 수십억, 심지어는 수조에 달하는 매개변수를 포함하는 레이블이 지정된 의료 이미지의 거대한 라이브러리로 구성된 입력을 통해 훈련됩니다. 딥 러닝이라는 프로세스를 통해 AI 모델은 자신이 보고 있는 내용에 대해 "추측"한 다음 답변을 확인합니다. 시간이 지남에 따라 모델이 데이터 매개변수에 할당하는 "가중 점수"는 매우 정확해져서 매번 정확한 추측을 하게 됩니다. 즉, 의료영상에서 질병의 증상을 인식하는 방법을 학습한 것입니다.AI는 방대한 데이터 세트를 학습하고 많은 데이터가 그래픽 형식이기 때문에 의료 분석에 AI를 주입하려면 최신 그래픽 처리 장치(GPU)를 사용하여 병렬 컴퓨팅에 참여할 수 있는 서버가 권장됩니다. GIGABYTE Technology의  G-시리즈 GPU 서버를 사용  하면 광범위한 고급 GPU 제품에 액세스할 수 있습니다. 예를 들어, NVIDIA 인증  G593-SD0  GPU 서버는 HGX™ H100 8-GPU 컴퓨팅 모듈을 통합하여 시장에서 가장 강력한 AI 교육 플랫폼 중 하나를 만듭니다. GIGABYTE 서버는 OAM(OCP Accelerator Module) 사양을 따르는 최첨단 GPU 가속기인 AMD Instinct™ MI300X도 지원합니다. 또 다른 흥미로운 옵션은 AI 및 HPC 워크로드용으로 특별히 설계된 "CPU + GPU" 패키지입니다. 귀하의 옵션에는 AMD의 엔터프라이즈급 APU(가속 처리 장치) 제품인 AMD Instinct™ MI300A와 GIGABYTE의 H223-V10 및 H263-V11  H-  시리즈  고밀도  서버 에서 사용할 수 있는 NVIDIA Grace Hopper™ Superchip이 포함됩니다 .최첨단 하드웨어 외에도 GIGABYTE의 투자 회사인 MyelinTek Inc.는  NVIDIA MONAI와 같은 의료 AI 개발을 위한 인기 있는 딥 러닝 프레임워크를 통합한 "MLOps 플랫폼"인 MLSteam DNN 교육 시스템을 제공합니다. 라벨링 도구 및 이미지 프로그램과 같이 의사 및 기타 의료 서비스 개발자와 협력한 광범위한 경험을 바탕으로 MyelinTek이 엄선한 도구입니다. GIGABYTE 및 MyelinTek과 협력하면 기록적인 시간 내에 AI가 탑재된 토털 솔루션을 설정하는 데 도움이 될 수 있습니다.리소스:AI 훈련이란 무엇입니까?딥러닝이란 무엇인가요?병렬 컴퓨팅이란 무엇입니까?GPU(그래픽 처리 장치)란 무엇입니까?OCP란 무엇입니까?MLOps란 무엇인가요?   진단: AI 지원 상담으로 효율성이 향상되고 행정 업무가 가벼워집니다. AI 지원 상담의 이점은 의사가 사전 훈련된 모델을 사용하여 AI 추론에 참여하고 의료 이미지를 실시간으로 분석할 수 있다는 것입니다. 자연어 처리(NLP)의 발전으로 상담 중에 직원이 전자 건강 기록(EHR)을 생성하는 데 도움이 되므로 관리 부담이 줄어들 뿐만 아니라 데이터 검색 및 분석이 쉬워집니다. 그 결과 효율성이 향상되고 환자가 필요한 만큼 충분한 관심을 받을 수 있게 되었습니다.AI 워크로드의 크기에 따라 권장되는 서버 솔루션은 중앙 집중식 마이크로 데이터 센터 또는 서버 룸 내에 수용되는 특수 AI 추론 플랫폼일 수 있습니다. 또는 진료실에 배치할 수 있는 워크스테이션. 첫 번째 사용자 환경의 경우 GIGABYTE는   2U 섀시에 16개의 AMD Alveo™ V70 카드로 구성된 업계 최고의 초고밀도 구성을 특징으로 하는 G293-Z43 GPU 서버를 권장합니다. Alveo™ V70은 외부 메모리에 의존하지 않고 AI 모델의 레이어 간에 데이터를 전달할 수 있는 적응형 데이터 흐름 구조를 사용하는 AMD의 XDNA™ 아키텍처를 기반으로 합니다. 그 결과 성능과 에너지 효율성이 향상됩니다.두 번째 시나리오의 경우, GIGABYTE는   엔터프라이즈급 서버의 컴퓨팅 능력을 귀하의 책상에 직접 제공하는 포괄적인 W 시리즈 타워 서버/워크스테이션 솔루션 라인을 보유하고 있습니다. 예를 들어,  W771-Z00은  AMD Ryzen™ Threadripper™ PRO 프로세서에서 실행되며 최대 7개의 GPU 확장 카드 또는 4개의 이중 폭(DW) 가속기를 지원합니다. 이는 상담 중에 실시간 AI 추론을 가능하게 하는 데 충분한 처리 능력입니다. 추론 결과는 AI 모델을 재교육하고 추가로 최적화하는 데 사용될 수 있으므로 AI 지원 상담과 의료 분석 간의 선순환을 완성할 수 있습니다.GIGABYTE 및 MyelinTek의  MLSteam DNN 교육 시스템을  사용하여 NLP 및 LLM(대형 언어 모델) 애플리케이션을 지원할 수 있습니다. 환자 데이터는 민감하고 기밀로 유지되어야 하기 때문에 의료진은 공개적으로 이용 가능한 생성 AI 서비스를 사용하지 못할 수도 있습니다. 자체 AI 챗봇을 호스팅하려는 병원과 진료소를 위해 GIGABYTE와 MyelinTek은 AMD ROCm 또는 NVIDIA CUDA와 같이 고객이 선택한 GPU 가속 소프트웨어 플랫폼에 대해 BLOOM과 같은 인기 있는 오픈 소스 LLM을 최적화하는 데 도움을 줄 수 있습니다. 간단히 말해서, 우리는 귀하가 번거로움 없이 AI 지원 의료 서비스 제공을 시작할 수 있도록 귀하의 하드웨어와 소프트웨어가 잘 작동하는지 확인합니다.리소스:AI 추론이란 무엇입니까?자연어 처리(NLP)란 무엇입니까?데이터 센터란 무엇입니까?서버룸이란 무엇입니까?   진단: 요약 환자가 필요한 치료를 받기 전에 의사는 적시에 정확한 진단을 내려야 합니다. AI는 과거 의료 데이터(예: 의료 이미지)를 "연구"하고 더 빠르고 정확하게 질병의 증상을 인식하는 방법을 학습함으로써 의료 분석에 사용될 수 있습니다. 이러한 AI 모델은 상담 중에 프로세스를 더욱 효율적이고 효과적으로 만들기 위해 사용될 수 있습니다. 또한 AI는 행정 업무를 줄이고 즉시 EHR을 생성하여 의사가 환자와 더 많은 시간을 보낼 수 있도록 하는 동시에 향후 의료 분석에 사용할 수 있는 새로운 디지털 데이터를 생성할 수도 있습니다.  AI를 의료 분석에 주입하기 위해 GIGABYTE Technology는 시장에서 가장 진보된 처리 장치를 사용하여 AI 훈련을 가속화할 수 있는완전한  AI 서버 포트폴리오를 제공합니다. 예를 들어, GIGABYTE의 G593 시리즈는 AMD Instinct™ MI300X 또는 NVIDIA HGX™ H100 8-GPU 컴퓨팅 모듈을 지원할 수 있어 이러한 서버를 가장 강력한 AI 교육 플랫폼으로 만들 수 있습니다. GIGABYTE 서버는 또한 CPU와 GPU를 AI와 HPC에 최적화된 하나의 패키지로 결합한 새로운 종류의 칩인 최신 NVIDIA Grace Hopper™ Superchip 및 AMD Instinct™ MI300A APU를 지원합니다. 이러한 솔루션의 도움으로 의료 분석이 더욱 빠르고 스마트해집니다.AI 지원 상담을 위해 고객은 중앙 집중식 위치 또는 현장 계산을 위한 워크스테이션에서 AI 추론을 수행하려는 경우 소형, 고밀도 서버 솔루션을 채택할 수 있습니다. GIGABYTE의 G293-Z43은 2U 섀시에 16개의 AMD Alveo™ V70 카드를 탑재하여 업계 최고의 컴퓨팅 밀도를 제공하므로 첫 번째 시나리오에 완벽하게 적합합니다. 반면에, GIGABYTE의 W-시리즈 타워 서버/워크스테이션 제품을 배치하여 엔터프라이즈급 컴퓨팅을 병원에 직접 가져올 수 있습니다. 상담 중에 수집된 디지털 데이터는 AI 모델을 재교육하고 최적화하는 데 사용될 수 있습니다.GIGABYTE는 최상위 하드웨어 외에도 투자 회사인 MyelinTek Inc.를 통해 소프트웨어 솔루션도 제공합니다. GIGABYTE의 MLSteam DNN 교육 시스템은 NVIDIA MONAI와 같은 의료 AI 개발을 위한 인기 있는 딥 러닝 프레임워크와 권장 라벨링을 결합하므로 의료 분석을 향상시킬 수 있습니다. AI 훈련을 간소화하는 도구 및 이미지 프로그램. 또한 MLSteam DNN 교육 시스템은 NLP 및 LLM 애플리케이션에 사용할 수 있습니다. 이는 민감한 환자 데이터를 보호하면서 상담을 지원하기 위해 자체 AI를 호스팅하려는 의료 서비스 제공자에게 중요합니다.리소스:기술 가이드: 생성 AI를 활용하려면 "훈련" 및 "추론"에 대해 배워야 합니다.FAQ: 인공 지능에 대해 자주 묻는 10가지 질문     치료 : 개인별 상태에 따른 특화된 진료를 제공하는 맞춤의학 진단 후 논리적인 다음 단계는 치료입니다. 이 분야의 흥미로운 혁신 중 하나는 약을 처방할 때 환자의 유전자, 생활 방식, 생활 환경을 고려하는 맞춤 의학 또는 정밀 의학입니다. 이는 동일한 질병을 앓고 있는 모든 개인을 동질적인 개체처럼 치료하는 기존의 일률적인 방식과 다릅니다. 개인맞춤의료는 더욱 효과적이며 귀중한 의료자원의 낭비를 방지합니다.앞서 언급한 전자 건강 기록(EHR)의 편재성은 AI가 환자 정보를 디지털화하고 분석할 수 있도록 하는 데 큰 도움이 됩니다. 앞서 언급한 바와 같이 GIGABYTE는 EHR 작업을 위한 서버 솔루션과 MLOps 소프트웨어를 제공합니다. 이 제품은 AI가 데이터를 연구하고 개인의 병력을 기반으로 적절한 치료법을 추천하는 데 필요한 컴퓨팅 능력을 제공합니다.안전하고 안정적인 데이터 저장은 맞춤형 의료를 실현하는 데에도 중요합니다. 인간과 로봇 의사가 맞춤형 치료를 처방하기 위해서는 상세한 건강 기록을 유지해야 하기 때문에, 데이터베이스를 구축하고 즉각적인 접근이 가능하도록 특수 서버를 사용합니다.GIGABYTE Technology의  S-시리즈 스토리지 서버는  의료 및 의학 분야에 최신 데이터 스토리지 기술을 제공합니다. 예를 들어,  S183-SH0은  최신 PCIe Gen5 인터페이스를 활용하여 더 큰 스토리지 용량(최대 240테라바이트)을 제공하는 32개의 EDSFF E1.S NVMe 핫 스왑 가능 베이를 갖춘 올플래시 어레이(AFA) 스토리지를 제공합니다. 확장성과 기존 엔터프라이즈급 2.5인치 SSD의 장점을 유지합니다. GIGABYTE는 또한 Graid 기술과 협력하여 CPU 성능에 영향을 주지 않고 RAID의 보안 이점을 제공하는 소프트웨어 정의 솔루션인 SupremeRAID™를 제공합니다.GIGABYTE의  네트워크 서버는  컴퓨팅 서버 및 기타 외부 장치와 연결하여 스토리지 서버를 지원할 수 있습니다. 스토리지 서버 자체를 포함하여 다양한 범주의 서버가 이 역할을 수행할 수 있지만 GIGABYTE의  R-시리즈 랙 서버는  다용성과 유연성으로 인해 적극 권장됩니다. 이러한 서버는 서버 랙의 공간 할당을 최적화하고 데이터 센터의 기능을 향상시키는 방향으로 고객이 선택한 프로세서, 확장 카드 및 드라이브 베이를 수용할 수 있습니다.리소스:NVMe란 무엇입니까?PCIe란 무엇입니까?확장성이란 무엇입니까?RAID란 무엇입니까?중앙처리장치(CPU)란 무엇입니까?   치료: 환자 모니터링은 비침해적이고 중단 없는 원격 의료 서비스를 제공합니다. 개인의 사생활을 침해하거나 삶의 질에 영향을 주지 않고 수행할 수 있다면 의료진이 치료 후 환자의 회복 과정을 감시하는 것이 도움이 됩니다. 전통적으로 환자 모니터링은 병원 병동에서만 가능했으며 매우 노동 집약적이었습니다. 병원 밖에서 환자를 모니터링하는 것은 거의 불가능했습니다. AI가 그것을 바꾸었습니다.병원 병동의 병실 내에서는  개인 프라이버시를 침해할 수 있는 영상을 렌더링하거나 전송하지 않고 3D 깊이 감지 기술을 활용하여 환자의 위치와 동작을 감지하는 GIGABYTE의 스마트 추락 감지 시스템 과 같은 발명품을 통해 환자의 안전을 보호할 수 있습니다. 추락이 발생하면 시스템은 즉시 직원에게 알리고 AI를 사용하여 상황을 정확하게 평가하고 오경보를 방지합니다. 중환자실(ICU)에서는 훈련된 AI 모델이 환자의 심전도(ECG)를 모니터링하고 직원에게 위험을 경고할 수 있습니다. 이미 다룬 GIGABYTE의 진단용 AI 교육 및 추론 솔루션은 환자 모니터링을 위한 컴퓨팅 플랫폼 역할을 할 수 있습니다.병원 및 진료소 외부에서는 웨어러블 장치 및 기타 IoT 기기를 통해 원격 의료 서비스를 촉진할 수 있습니다. AI는 일반적인 문의에 응답하고 환자에게 인간 의사의 주의가 필요한지 여부를 평가할 수 있습니다. GIGABYTE의  E-시리즈 엣지 서버는  환자에게 더 가까이 컴퓨팅을 제공하고 원격 의료 범위를 확장하는 데 도움이 될 수 있습니다. 이 서버는 데이터 센터 외부 배포에 편리한 소형 섀시에서 높은 컴퓨팅 밀도, 높은 확장성 및 짧은 대기 시간 처리 기능을 제공합니다. 이는 방대한 양의 의료 데이터를 처리하고 적시에 신뢰할 수 있는 의료 서비스를 제공할 수 있는 5G 기반 다중 액세스 엣지 컴퓨팅(MEC) 네트워크의 구성 요소 역할을 할 수 있습니다. 대부분의 모바일 및 웨어러블 장치와 동일한 "컴퓨팅 언어"를 사용하는 GIGABYTE의  ARM 서버는 회복 중인 환자에게 의료 서비스를 제공하기 위해 엣지에서 의료 AI를 호스팅하기 위한 또 다른 최적의 플랫폼입니다.리소스:IoT란 무엇입니까?엣지 컴퓨팅이란 무엇입니까?5G란 무엇인가?다중 액세스 엣지 컴퓨팅이란 무엇입니까?   치료: AI를 활용해 정확성, 안전성, 속도 향상으로 신약 개발 혜택 의료 시설 외부에서도 연구자들은 최신 컴퓨팅 플랫폼을 사용하여 더 우수하고 안전한 치료법을 더 효율적으로 개발하고 있습니다. 그들의 초점은 코로나19와 같은 긴급한 글로벌 의료 위기일 수도 있고, 유전성 심장 질환과 같이 고령화 사회에 큰 타격을 주고 있는 장기적인 만성 질환일 수도 있습니다. AI와 HPC는 바이러스와 건강에 해로운 인간 세포의 분자 구조를 해부하는 데 사용될 수 있습니다. 또한 다양한 약물의 결과를 예측하고 약물 상호 작용을 시뮬레이션하여 의도하지 않은 부작용을 방지할 수 있습니다. 그 결과 우리는 우리 몸을 완전히 치유하고 건강을 보호하는 방식으로 우리에게 필요한 치료를 더 빨리 받을 수 있게 됩니다.대부분의 연구 기관에서는 과학자들이 완전한 도구 세트를 활용할 수 있도록 여러 서버를 사용하여 컴퓨팅 클러스터를 구축합니다. 앞서 언급한 모든 GIGABYTE 하드웨어 및 소프트웨어 솔루션에는 각자의 역할이 있습니다. 예를 들어  H 시리즈 고밀도 서버  와  G 시리즈 GPU 서버는  가속화된 계산에 탁월하므로 클러스터의 계산 노드 역할을 할 수 있습니다. S-시리즈 스토리지 서버는  원시 데이터와 귀중한 연구 결과를 안전하게 저장하는 데 적합합니다. R 시리즈 랙 서버는  컴퓨팅, 스토리지 또는 네트워킹 역할을 수행할 수 있습니다. 또한 동시에 작동하는 많은 수의 서버를 관리하는 데 중요한 "헤드" 또는 "제어" 노드 역할을 할 수도 있습니다.여기서는 GIGABYTE가 독점적인 다중 서버 원격 관리 소프트웨어 플랫폼인 GIGABYTE Server Management(GSM)를 무료로 제공한다는 점을 언급하기에 좋은 곳입니다. GSM은 인터넷을 통한 서버 클러스터 관리를 용이하게 합니다. 실시간 원격 제어를 위한 GSM 서버, 원격 모니터링 및 관리를 위한 GSM CLI, OS를 통한 데이터 검색을 위한 GSM Agent, 모바일 앱을 통한 원격 관리를 위한 GSM Mobile, 실시간 GSM 플러그인 등 다양한 시스템 관리 기능을 포함합니다. VMware vCenter를 통한 모니터링 및 관리.스페인 마드리드에 있는 Rey Juan Carlos University는 연구원들이 "Talos"로 지정한 GIGABYTE 컴퓨팅 클러스터의 만족스러운 소유자 중 하나입니다. 그들의 연구 분야는 세포 노화와 재프로그래밍입니다. 그들은 세포 및 분자 수준 모두에서 노화 과정을 연구하여 심장학 분야에서 새로운 돌파구를 마련하고 이를 통해 심장 질환에 대한 더 나은 치료법을 개발할 수 있기를 희망합니다. 대만의 Cheng Kung University(NCKU)는 4개의 GIGABYTE G482-Z50  GPU 서버 클러스터를 사용하여  코로나19를 유발하는 바이러스인 SARS-CoV-2가 다양한 약물에 어떻게 반응하는지 시뮬레이션했습니다. 이것이 백신 개발의 핵심이다. 본 연구에 대한 노력과 기타 성과를 바탕으로 NCKU 학생 팀은 2020년 APAC HPC-AI 대회에서 1위를 차지했습니다.자료:컴퓨팅 클러스터란 무엇입니까?노드란 무엇입니까?사례 연구: Rey Juan Carlos University에서 세포 노화 메커니즘 연구사례 연구: GIGABYTE는 NCKU 교육 상을 받은 슈퍼컴퓨팅 팀을 지원합니다.   치료: 요약 질병이 진단된 후, 의사는 환자가 회복될 수 있도록 치료를 제공해야 합니다. AI는 우리가 받는 의료를 다양한 방식으로 개선할 수 있습니다. 예를 들어 AI는 맞춤형 의료라는 이상을 현실로 바꿔 환자가 병력을 바탕으로 맞춤형 진료를 받을 수 있도록 해준다. AI로 강화된 환자 모니터링은 의료진이 일상 생활을 방해하지 않고 환자의 회복을 계속 감시하는 데 도움이 됩니다. AI는 또한 약물 개발을 더 빠르고 안전하며 더 정확하게 만들어 마침내 전 세계적으로 유행하는 전염병과 오래된 질병에 대한 솔루션을 갖게 될 수 있습니다.맞춤형 의료와 관련하여 환자 데이터를 연구하려면 최첨단 프로세서로 구동되는 서버가 필요할 뿐만 아니라 민감한 정보를 안전하게 저장하려면 대용량, 보안성이 뛰어난 스토리지 서버도 필수적입니다. GIGABYTE Technology는 포괄적인 AI 서버 제품군 외에도 데이터를 보호하기 위한 최첨단 스토리지 서버와 데이터 센터의 컴퓨팅 및 스토리지 계층을 보완하는 네트워크 서버를 제공합니다. GIGABYTE는 Graid Technology와의 제휴를 통해 SupremeRAID™를 제공하여 CPU 성능에 영향을 주지 않고 데이터 보안을 더욱 보장합니다.병원 병동 내에서는 GIGABYTE의 AI 서버를 통해 환자 모니터링이 가능하며, 스마트 낙상 감지 시스템과 같은 비침해적 모니터링 장치가 지원되어 개인 정보를 침해하지 않고 환자를 감시할 수 있습니다. 병원 외부에서는 원격 의료 네트워크 확장을 위해 GIGABYTE의 엣지 서버 및 ARM 서버를 권장합니다. 이들 제품은 환자 거주지와 더 가까운 곳에서 연산을 수행하고, 5G 네트워크를 통해 환자와 연결해 AI 상담과 스마트 모니터링이 가능하다.약물 개발을 전담하는 연구 센터는 일반적으로 AI 및 HPC를 활용한 노력을 강화하기 위해 컴퓨팅 클러스터를 구축합니다. GIGABYTE는 컴퓨팅을 위한 고밀도 서버 및 GPU 서버부터 데이터 저장을 위한 스토리지 서버, 컴퓨팅, 네트워킹, 스토리지 및 전체 클러스터 관리를 위한 랙 서버에 이르기까지 이러한 클러스터를 구성하는 데 필요한 모든 서버 솔루션을 제공합니다. GIGABYTE의 무료 독점 GIGABYTE 서버 관리(GSM) 소프트웨어를 사용하면 편리한 원격 클러스터 관리가 가능합니다.리소스:기술 가이드: 분산 컴퓨팅의 고급 형태인 클러스터 컴퓨팅기술 가이드: AI에 적합한 서버를 선택하는 방법은 무엇입니까? (1 부)     왜 기가바이트인가? 의료 및 의학에 인공 지능을 적용하려면 완전한 하드웨어 및 소프트웨어 패키지를 준비할 수 있는 기술 파트너와 협력해야 합니다. GIGABYTE 기술을 사용하면 다음과 같은 6가지 이점을 누릴 수 있습니다. ● 포괄적인 제품군 GIGABYTE는 의료 및 의학 분야의 진단과 치료를 위한 하드웨어와 소프트웨어를 제공합니다. 귀하가 대형 병원에서 근무하든 소규모 진료소에서 근무하든 GIGABYTE는 귀하의 AI 워크로드 및 작업 환경에 가장 적합한 서버 솔루션은 물론 AI 여정을 시작할 수 있는 소프트웨어 패키지를 추천할 수 있습니다. ● 최첨단 컴퓨팅 능력 GIGABYTE는 x86 CPU용 AMD 및 Intel, ARM CPU용 Ampere 및 NVIDIA는 물론 AMD, NVIDIA 및 기타 GPU 공급업체와 같은 업계 최고의 칩 공급업체와 긴밀한 관계를 유지하고 있습니다. 이는 최신 AI 기술로 의료 도구 상자를 완성하려는 경우 필수적인 GIGABYTE를 선택하면 최첨단 처리 능력을 의미합니다. ● 독특하고 독점적인 제품 디자인 GIGABYTE의 서버 제품은 안정적인 작동을 유지하고 전기 비용을 최소한으로 유지하면서 프로세서의 잠재력을 최대한 발휘할 수 있는 혁신적인 열 관리 기능을 갖추고 있습니다. 이는 지속 가능한 장기 배포에 이상적일 뿐만 아니라 AI 주입 의료 서비스를 항상 사용할 수 있도록 보장하는 데도 도움이 됩니다. ● 부가 가치 서비스 보완 앞서 언급했듯이 GIGABYTE는 클러스터 관리를 위해 GIGABYTE 서버 관리(GSM)를 무료로 제공합니다. 또한 모든 GIGABYTE 서버에는 GIGABYTE Management Console이 무료로 제공됩니다. 웹 기반 브라우저를 통해 서버 성능을 극대화할 수 있는 사용자 친화적인 원격 관리 도구입니다. 다른 제공업체에서는 이러한 기능에 대해 비용을 청구할 수 있지만 GIGABYTE는 그렇지 않습니다. ● 수십 년간 입증된 실적 GIGABYTE의 비전은 첨단 기술로 세상을 더 나은 곳으로 만드는 것입니다. GIGABYTE는 2000년부터 서버 솔루션 개발을 시작했습니다. 2023년에는 서버 사업부를 분사하여 Giga Computing Technology라는 전액 출자 자회사를 설립했습니다. 생태계에 대한 장기적인 투자는 GIGABYTE 서버가 최신 AI 제품과 호환되며 NVIDIA, Linux, Red Hat 등과 같은 업계 리더의 인증을 받았다는 것을 의미합니다. ● 믿을 수 있는 서비스 및 지원 GIGABYTE는 하드웨어와 소프트웨어에 대해 안정적인 서비스와 지원을 제공합니다. 온라인 eSupport 시스템을 통해 당사 서비스 팀과 연락할 수 있으며, 온라인 FAQ를 통해 현장에서 문제를 해결하는 데 도움을 받을 수 있습니다.     요약 헬스케어, 의료산업에 인공지능이 도입되면서 인류는 더 행복하고 건강한 삶을 살게 될 것입니다. 광범위하게 말하면, AI는 의료 분석을 발전시킬 수 있는 AI 훈련을 통해 진단을 지원할 수 있습니다. AI 추론을 통해 상담 시 의사결정에 도움을 줄 수 있을 뿐만 아니라 행정적 부담도 줄일 수 있습니다. AI는 환자의 개별 요구 사항에 따라 맞춤형, 맞춤형 약품을 처방하여 치료를 개선할 수 있습니다. 회복 과정에서 환자를 모니터링할 수 있으며 연구자가 더 새롭고 더 나은 치료법을 개발하는 데 도움을 줄 수 있습니다.AI 훈련과 추론이 진단의 핵심이기 때문에, 시장에서 가장 진보된 프로세서 중 일부를 지원할 수 있는 GIGABYTE Technology의 H-시리즈 고밀도 서버와 G-시리즈 GPU 서버는 AI를 통한 의료 및 의학 진단 지원에 적극 권장됩니다. . GIGABYTE의 W-시리즈 타워 서버/워크스테이션 제품은 데이터 센터급 컴퓨팅 능력을 진료실에 바로 가져올 수 있습니다. 소프트웨어와 관련하여 GIGABYTE의 MLSteam DNN 교육 시스템은 의료 AI 개발을 가속화할 수 있으며 환자 정보를 보호하면서 관리 작업을 처리하고 EHR을 생성하는 LLM 및 NLP 애플리케이션을 지원할 수 있습니다.위에서 언급한 슈퍼컴퓨팅 플랫폼은 치료 제공에도 이상적이지만 몇 가지 주의 사항이 있습니다. 개인화된 의료를 위해서는 GIGABYTE의 S-시리즈 스토리지 서버를 사용하여 민감한 의료 데이터를 저장하고 보호하는 것이 좋습니다. R 시리즈 랙 서버는 컴퓨팅 및 스토리지 서버를 지원하는 네트워크 서버의 역할을 수행할 수 있습니다. 또한 신약과 치료법을 개발하는 데 사용되는 컴퓨팅 클러스터의 헤드 또는 제어 노드 역할을 할 수도 있습니다. 24시간 환자 모니터링을 제공하기 위해 GIGABYTE의 스마트 낙상 감지 시스템과 같은 비침해적 감시는 개인 정보를 침해하지 않고 환자의 안전을 보장할 수 있습니다. GIGABYTE의 E-시리즈 엣지 서버 및 ARM 서버는 원격 의료를 위한 포괄적인 5G 지원 다중 액세스 엣지 컴퓨팅(MEC) 네트워크를 구축하는 데 최적입니다.AI의 힘은 우리의 웰빙을 더 잘 돌볼 수 있도록 의료 및 의료 산업에 혁명을 일으킬 수 있습니다.

상세보기

[GIGABYTE] AI에 적합한 서버를 선택하는 방법은 무엇입니까? 2부: 메모리, 스토리지 등

2023.10.04

[GIGABYTE] AI에 적합한 서버를 선택하는 방법은 무엇입니까? 2부: 메모리, 스토리지 등

기술 가이드 1부 에서는  AI 서버  에  적합한 중앙 처리 장치(CPU)  와  그래픽 처리 장치(GPU)를 선택하는 데 도움이 되는 몇 가지 유용한 팁을 살펴보았습니다   . 처리 능력이 가장 중요하지만 AI 컴퓨팅 플랫폼에는 이 두 가지 구성 요소보다 더 많은 것이 있습니다. 이 섹션에서는 메모리, 스토리지, 전원 공급 장치(PSU), 열 관리, 확장 슬롯 및 I/O 포트가 서버 성능에 어떤 영향을 미칠 수 있는지, 그리고 AI 작업에 적합한 장치를 선택하는 방법을 살펴봅니다. . 자세히 알아보기: 《AI 개발 및 응용을 위한 GIGABYTE AI 서버 소개   》《기술 가이드:  서버란 무엇입니까? 》   인공 지능을 기반으로 하는 도구와 서비스가 확산되면서 크고 작은 조직에서 "AI 서버" 조달이 우선 순위가 되었습니다. AI 서버 선택에 관한 GIGABYTE Technology의 기술 가이드 2부에서는 서버를 슈퍼컴퓨팅 강자로 변모시킬 수 있는 CPU 및 GPU 외에 6가지 다른 필수 구성 요소를 살펴봅니다.   AI 서버에 적합한 메모리를 선택하는 방법은 무엇입니까? RAM이라고도 하는 메모리는 서버에서 프로세서가 즉시 사용할 수 있도록 프로그램과 데이터를 저장하는 데 사용됩니다. 가장 강력한 AI 칩은 많은 양의 데이터를 매우 빠르게 계산할 수 있으므로 부적절한 메모리로 인해 성능이 저하될 수는 없습니다. 서버의 메모리는 항상 프로세서를 지원할 만큼 충분한 처리량과 용량을 가지고 있어야 합니다.현재 가장 발전된 유형의 메모리는 5세대 Double Data Rate 동기식 동적 랜덤 액세스 메모리인 DDR5 SDRAM입니다. 줄여서 DDR5라고 부르겠습니다. 이전 세대보다 더 높은 데이터 전송 속도, 더 높은 대역폭, 더 낮은 전압 요구 사항 및 더 많은 용량을 제공하므로 최고의 AI 서버에 선택되는 메모리 구성 요소입니다.분명히 하나의 RAM 스틱(더 정확하게는  DIMM 이라고 함))만으로는 충분하지 않습니다. AI 서버에 워크로드 요구 사항을 충족하기에 충분한 DIMM 슬롯이 있는지 확인하십시오. 예를 들어,  AI 훈련  및  추론을  위해 설계된  G 시리즈 GPU 서버인 GIGABYTE  의 G493-ZB3 에는 인상적인 48개의 DIMM 슬롯이 있습니다. DIMM 자체는 속도, 안정성 및 용량을 최적화하도록 설계될 수 있습니다. 예로는 RDIMM(등록된 DIMM) 및 LRDIMM(부하 감소 DIMM)과 같은 특정 DIMM 하위 집합이 있습니다. 마지막으로, 서버 프로세서에는 메모리 사용을 합리화하는 방법이 있을 수 있습니다. GIGABYTE의 강력한 AI 트레이닝 제품인  G593-SD0은 Intel® Xeon® CPU Max 시리즈 프로세서를 지원합니다. 이 프로세서는 고대역폭 메모리(HBM)를 통해 향상된 메모리 사용을 제공합니다. HPC  및 AI 워크로드. AMD GPU가 사용하는 XDNA™ 아키텍처는 외부 메모리에 의존하지 않고 데이터가 AI 모델의 계층을 통과할 수 있도록 하는 적응형 데이터 흐름 아키텍처를 자랑합니다.     AI 서버에 적합한 스토리지를 선택하는 방법은 무엇입니까? 메모리는 즉시 사용할 수 있도록 데이터를 저장하는 반면, 스토리지는 사용자가 삭제할 때까지 서버의 모든 데이터를 영구적으로 보관합니다. 고려해야 할 세 가지 기준은 속도(예: 데이터 전송 속도 및 대역폭), 저장 용량, 장치가 "현대 데이터  센터 의 세 번째 기둥 "(CPU 및 GPU에 이어)  인 DPU 와 호환되는지 여부입니다. .기억해야 할 약어가 많으니 계속 함께해주세요. 우선, 솔리드 스테이트 드라이브(SSD)가 하드 디스크 드라이브(HDD)보다 우수한 저장 장치로서 오랫동안 앞섰으므로 AI 서버에서 반드시 사용해야 한다는 것은 말할 필요도 없습니다. 스토리지 인터페이스에는 SATA, SAS, NVMe 의 세 가지 유형이 있습니다. . SATA는 가장 확립된 기술이며 처음에는 HDD와 함께 사용하도록 설계되었습니다. SAS는 SATA보다 빠르지만 SSD에서만 사용할 수 있는 NVMe가 챔피언입니다. NVMe는 PCIe 기술을 활용하여   읽기/쓰기 속도를 향상하고 저장 장치와 프로세서 간의 대역폭을 높이기 때문에 결과적으로 데이터 전송 속도가 빨라지고 대기 시간이 단축됩니다. 따라서 최신 Gen5 NVMe 인터페이스를 사용하는 SSD는 AI 서버의 스토리지 장치로 최고의 선택입니다.고려해야 할 다음 속성은 용량입니다. 대체로 말하면, NVMe SSD는 더 작은 M.2 폼 팩터 또는 보다 보편적인 엔터프라이즈급 2.5인치 폼 팩터를 채택합니다. GIGABYTE의 포괄적인 AI 서버 제품군은 더 큰 용량과 핫 스왑 가능 설계로 인해 주로 2.5인치 스토리지 베이를 활용하므로 서버 전원을 끄지 않고도 베이를 편리하게 제거하거나 교체할 수 있습니다. 많은 서버 모델에서는 추가 M.2 슬롯도 사용할 수 있습니다.마지막으로  H223-V10  H-시리즈 고밀도 서버 와 같은 GIGABYTE의 일부 AI 서버 NVIDIA Grace Hopper™ Superchip으로 구동되는 이 제품은 확장 슬롯에 NVIDIA BlueField-3 DPU를 추가하여 보조 2.5" Gen5 NVMe 핫스왑 가능 스토리지 베이를 지원할 수 있습니다. 이는 옵션을 비교할 때 고려해야 할 흥미로운 새 기능입니다. AI 서버의 스토리지 베이용. 메모리와 스토리지는 서로 다른 기능을 수행하지만 AI 슈퍼컴퓨팅 플랫폼에 적합한 것을 선택할 때 비슷한 경험 법칙이 있습니다. AI 서버에 적합한 전원 공급 장치를 선택하는 방법은 무엇입니까? 서버의 전원 공급 장치(PSU)는 서버 실행에 안전하고 안정적인 전원을 제공합니다. AI 워크로드는 컴퓨팅 집약적인 경향이 있으므로 탁월한 전력 효율성과 중복성을 제공하는 PSU 구성을 선택하는 것이 필수적입니다.PSU의 전력 효율성을 확인하는 가장 좋은 방법은 80 PLUS라는 인증 프로그램을 이용하는 것입니다. 이 프로그램은 에너지 효율성을 기준으로 PSU를 6가지 레벨로 구분하며, 80 PLUS Titanium이 가장 효율적입니다. 이 수준에서 변환효율(즉, 얼마나 많은 에너지 입력이 유용한 출력으로 변환되는지)은 간단히 말하면 90%에서 96% 사이입니다. 두 번째로 높은 수준은 80 PLUS Platinum으로, 변환 효율은 89%에서 94% 사이입니다. GIGABYTE의 AI 서버는 주로 80 PLUS Titanium 인증 PSU를 사용합니다.기억해야 할 또 다른 점은 중복성이 필수적이라는 것입니다. 하나 이상의 PSU가 다운되더라도 서버는 계속 작동해야 합니다. GIGABYTE의 AI 서버는 적절한 수의 예비 전원 공급 장치로 설계되었습니다. 일부 서버는 PSU의 절반이 오프라인이 되어도 정상 작동을 계속할 수 있습니다.     AI 서버에 적합한 열 관리를 선택하는 방법은 무엇입니까? 서버 내부의 모든 구성 요소가 많은 열을 발생시키는 것은 당연합니다. 전기 요금을 많이 내지 않고 서버에서 최고의 성능을 얻으려면 올바른 열 관리 또는 방열 도구를 선택하는 것이 중요합니다.서버를 시원하게 유지하는 전통적인 방법은 공기 냉각입니다. 즉, 서버에 팬이 설치되어 뜨거운 공기를 데이터 센터 통로로 펌핑합니다. GIGABYTE의 모든 AI 서버는 독점적인 공기 흐름 친화적인 하드웨어 설계를 채택합니다. 섀시의 공기 흐름 방향은 시뮬레이션 소프트웨어를 통해 평가되어 환기를 최적화했습니다. 고성능 팬과 방열판을 장착해 방열 성능을 더욱 강화했습니다. 자동 팬 속도 제어 프로그램은 섀시의 중요한 지점의 온도를 모니터링하고 그에 따라 해당 팬의 속도를 조정합니다. 팬 속도 프로필을 수동으로 조정하여 열 관리와 전력 효율성 간의 적절한 균형을 유지할 수도 있습니다. GIGABYTE의 G363-SR0과 같은 특정 AI 서버 NVIDIA HGX™ H100 4-GPU 모듈과 통합된 GPU 서버인 는  액체 냉각 도 지원합니다 . 이는 서버의 주요 구성 요소 주위를 감고 열을 흡수하는 냉각 루프를 통해 액체 냉각수를 펌핑하는 혁신적인 새로운 열 관리 방법입니다. 액체 냉각은 프로세서의 잠재력을 최대한 활용하는 동시에 데이터 센터의 전체  PUE를 향상시킬 수 있는 잠재력을 가지고 있습니다 .액체 냉각의 정점은  침수 냉각 으로, 비전도성 유전체 유체 욕조에 서버를 직접 담그는 방식입니다. GIGABYTE는 단상 및 2상 침수 냉각 솔루션을 모두 제공합니다  . 예를 들어  A1P0-EB0 는 표준 19인치 EIA 서버용으로 설계된 원스톱 침수형 냉각 솔루션이고,  A1O3-CC0 은 OCP 서버용  으로 설계되었습니다   .  GIGABYTE의 AI 서버는 전체 PUE를 더욱 향상시키면서 TDP를 최적화하는 이러한 고급 냉각 방법과 함께 작동하도록 수정될 수 있습니다  .자세히 알아보기:《GIGABYTE 전용  고급 냉각 솔루션 미니 사이트 방문 》《기술 가이드:  서버에 적합한 냉각 솔루션을 선택하는 방법은 무엇입니까? 》 다음은 AI 서버용 전원 공급 장치, 열 관리, 확장 슬롯 및 I/O 포트를 선택하는 방법에 대한 몇 가지 간단한 지침입니다. AI 서버에 적합한 확장 슬롯을 선택하는 방법은 무엇입니까? 확장  성 (필요할 때 컴퓨팅 도구 키트를 확장할 수 있는 여유 공간)이 중요하므로 AI 서버의 확장 슬롯에 주의를 기울이는 것을 잊어서는 안 됩니다. 잘못된 선택은 없지만 몇 가지 사항을 염두에 두는 것이 도움이 됩니다.먼저, PCIe Gen5 슬롯을 찾으십시오. 많을수록 더 좋습니다. PCIe Gen5의 대역폭은 128GB/s이고 데이터 전송 속도는 32GT/s입니다. 둘 다 이전 세대에 비해 100% 증가했습니다. 이 슬롯을 사용하면 데이터 전송, 데이터 압축, 데이터 저장, 데이터 보안 및 CPU에 대한 데이터 분석을 처리할 수 있는 추가 그래픽 카드,  RAID  카드는 물론 앞서 언급한 DPU도 추가하여 서버 성능을 더욱 향상시킬 수 있습니다. 버스 표준 외에도 섀시에 사용할 수 있는 물리적 공간도 있습니다. FHFL(전체 높이, 전체 길이) 및 HHHL(절반 높이, 절반 길이)과 같은 약어가 표시되며 이는 LP(로우 프로파일)와 동일합니다. 이러한 설명은 확장 슬롯이 작동하도록 설계된 카드의 크기를 나타냅니다. 더 작은 카드가 더 큰 카드용으로 설계된 슬롯에 들어갈 수 있지만 그 반대는 불가능하다는 점은 주목할 가치가 있습니다. 따라서 슬롯의 다양성과 달성하려는 컴퓨팅 밀도 중에서 선택해야 합니다. OCP 네트워킹 및 저장소 카드에 필요한 OCP 메자닌 슬롯은 이러한 추가 기능을 사용할 가능성이 있는 경우 AI 서버에서도 사용할 수 있어야 합니다.     AI 서버에 적합한 I/O 포트를 선택하는 방법은 무엇입니까? AI 서버에서 마지막으로 고려해야 할 사항은 스위치, 디스플레이 및 기타 서버와 같은 외부 장치에 연결하는 방법입니다. 언제나 그렇듯이, 기본 원칙은 가장 진보된 기술을 더 많이 확보하려고 노력하는 것입니다.  1Gb/s 또는 10Gb/s 전송 속도, USB 3.0 이상(예: USB 3.2)을 지원하는 LAN 포트를 목표로 하세요  .또한 서버에 MLAN이라고도 하는 전용 관리 포트가 있는지 확인할 수도 있습니다. 이는 서버의  BMC 에 대한 보안 액세스를 제공하므로 보다 편리한 서버 관리 방법을 원하는 경우 유용할 수 있습니다. 모든 것이 준비되면 AI 워크로드에 이상적으로 적합한 슈퍼컴퓨팅 플랫폼을 갖게 됩니다."AI에 적합한 서버를 선택하는 방법"에 관한 GIGABYTE 기술 가이드를 읽어주셔서 감사합니다. 2부: 메모리, 스토리지 등”. 이 기사가 도움이 되고 유익한 정보가 되었기를 바랍니다. 

상세보기

[GIGABYTE] 지리적 경계를 뛰어넘다! BIM 기술 혁신 센터

2023.10.04

[GIGABYTE] 지리적 경계를 뛰어넘다! BIM 기술 혁신 센터

GIGABYTE W771-Z00 GPU 워크스테이션 GIGABYTE의 "원격 교육 및 3D 디자인 협업" 솔루션은 NVIDIA Omniverse™를 핵심 프레임워크로 사용하고 GIGABYTE W771-Z00 GPU 워크스테이션을 가상 호스트로 사용합니다. 이 솔루션은 '대만 건축 및 건축 센터'에서 전시되어 건설 및 건축 엔지니어링 업계 내 실시간 원격 협업과 3D 협력을 시연합니다. 행정자치부 산하 건축건축연구소는 건축정보모델링(BIM) 기술을 홍보하고 향후 디지털 건설 애플리케이션 개발을 지원하기 위해 '건축디지털디스플레이교육센터'를 건립한다.  2024년 이전 개장 준비 및 계획을 담당하기 위해 대만 건축 건축 센터 (TABC) 를 임명했습니다  . 목표는 대만 최초의 건설 기업을 위한 BIM 기술 및 디지털 기술 전시 및 교육 센터를 만드는 것입니다. 전문 기술에 대한 산업계와 정부 간의 연결과 협력을 강화하기 위해 TABC는 TABC에서 솔루션을 전시하기 위해 GIGABYTE를 선택했습니다. GIGABYTE 솔루션은 “원격교육과 3D 디자인 협업” . NVIDIA Omniverse™를  핵심 프레임워크로, GIGABYTE  W771  -Z00  GPU 워크스테이션을 가상 워크스테이션으로 사용하는 이 솔루션은 울트라슬림 미니 PC인 GIGABYTE BRIX Extreme  GB-BEi7HS-1260  및  GB-BER7HS-5800을 씬 클라이언트 솔루션으로 사용합니다. 고성능 컴퓨팅과 유연한 배포를 제공합니다. 디자인, 교육, 건축, 건설 산업에 적합하며 실시간 원격 연결 및 3D 협업에 대한 요구를 지원합니다. TABC 애플리케이션 프로모션 부문 관리자 Ming-Hao Li(오른쪽에서 두 번째)가 Giga Computing의 비즈니스 개발 관리자인 Leo Wang(오른쪽에서 세 번째)에게 건축 디지털 디스플레이 및 교육 센터의 향후 계획을 설명하고 있습니다.   그러나 업계가 BIM 기술을 채택하도록 지원하는 과정에는 많은 과제가 있습니다. 과제에는 BIM을 위한 다양한 데이터 소스의 통합과 소프트웨어 도구의 호환성이 포함됩니다. 또한, 건설산업은 규제, 관리, 기술교육 등의 문제를 포함하여 실제 적용에 있어 여전히 많은 전통적 관행을 유지하고 있습니다. 이는 모두 BIM 기술을 촉진하기 위해 해결해야 할 과제입니다. Li 씨는 기술 수준을 예로 들어 건설 업계가 아직 프로젝트 공유를 위한 클라우드 기반 데이터 플랫폼인 CDE(Common Data Environment)와 통합하지 못했다고 설명했습니다. 서로 다른 전문 팀이 의사소통을 위해 서로 다른 소프트웨어의 파일을 변환하고 통합해야 하므로 협업 프로세스가 매우 복잡해졌습니다. 파일을 가져오거나 내보낼 때의 호환성 문제로 인해 프로젝트 완료 시간이 크게 늘어났습니다. 인재 교육 측면에서 BIM 기술은 건축가, 시공업체, 전기 엔지니어링 공급업체 간의 다자간 협업 및 설계 검토를 촉진할 수 있지만 기존 과정에서는 협업 프로세스를 구현하기 어렵고 참석자들은 구현에 대한 실무 경험을 얻을 수 없습니다. 다자간 협력의 이점. GIGABYTE W771-Z00 GPU 워크스테이션     가상 워크스테이션을 통해 다양한 지리적 위치에 있는 사용자는 초슬림 미니 PC인 BRIX Extreme을 인터페이스로 사용하여 W771-Z00 GPU 워크스테이션의 컴퓨팅 성능과 리소스에 액세스할 수 있습니다.   Giga Computing의 비즈니스 개발 관리자인 Leo Wang은 "소프트웨어와 하드웨어의 융합을 통해 3D 디자인 작업과 원격 협업에 대한 요구 사항을 충족합니다. 이 솔루션에는 최대 4개의 듀얼 슬롯 전문가를 수용할 수 있는 GIGABYTE W771-Z00 워크스테이션이 포함되어 있습니다." GPU는 물론 유연하고 확장 가능한 BRIX 미니 PC를 씬 클라이언트로, NVIDIA Omniverse 플랫폼을 통해 지리적 경계에 관계없이 실시간 다자간 협업을 촉진합니다." GIGABYTE는 NVIDIA 인증 서버 파트너이며 GIGABYTE의 하드웨어는 NVIDIA GPU 및 고속 네트워킹에 대해 검증되었습니다. TABC가 설정한 W771-Z00 워크스테이션에는 실시간 컴퓨팅의 핵심인 NVIDIA RTX™ A5000 전문 GPU 카드 2개가 포함되어 있습니다. 워크스테이션은 NVIDIA RTX™ 그래픽 카드 A2000, A4000, A4500도 지원합니다. "원격 교육 및 3D 디자인 협업"을 위한 건축 디지털 디스플레이 및 교육 센터 전시 공간 NVIDIA Omniverse는 소프트웨어 간 파일 협업을 촉진하고 작업 효율성을 높입니다. 전체 프로젝트 수명주기에서 BIM의 핵심 개념은 모든 관련 당사자의 설계, 시공 및 운영을 통합하고 조정하는 것입니다. 이러한 당사자에는 건축가, 엔지니어, 계약자, 공급업체 및 소유자가 포함됩니다. 공유된 공통 디지털 모델을 통해 전문 팀은 실시간으로 협력하고 설계에 대해 더 잘 이해할 수 있습니다. NVIDIA Omniverse와 GIGABYTE의 원격 솔루션은 BIM과의 협업을 크게 향상시키고 탁월한 시각화 효과를 제공합니다. Li 씨는 "NVIDIA Omniverse는 전문가가 사용하는 다양한 소프트웨어 간의 통신을 촉진하는 가상 협업을 위한 확장 가능한 개방형 플랫폼입니다. 예를 들어, 다양한 전문 팀이 플랫폼에서 실시간 4D 건설 시뮬레이션에 참여하고 건설 현장의 기계 작동 및 이동에 대한 배치 및 제한 사항에 대해 배울 수 있습니다. 따라서 건설 현장의 안전성을 높일 수 있습니다. 또한 사용자는 가상 환경에서 조정 및 수정을 통해 문제를 해결하고 조정 완료 후 현장에서 공사를 진행할 수 있습니다.   W771-Z00 GPU 워크스테이션은 원격 협업 및 실시간 컴퓨팅에 대한 수요를 충족합니다. 가상 데스크톱 소프트웨어 VMware Horizon에 대한 라이선스 문제, 향후 하드웨어 확장을 위한 유연성 설계, 네트워크 설계 문제 등을 포함하여 건축 디지털 디스플레이 및 교육 센터에 "원격 교육 및 3D 디자인 협업" 전시 공간을 설정하는 과정에서 어려움이 있었습니다. 다양한 지역에 걸쳐 환경을 설정하고 시스템 설정 및 교육에 적합한 소프트웨어 및 하드웨어 통합 회사를 찾는 것입니다. Leo Wang은 "설정 과정에서 가장 어려웠던 부분은 소프트웨어와 하드웨어 제공업체 간의 통신 비용과 시스템 유지 관리 기간의 책임 분담이었습니다. 다행히 GIGABYTE와 Gemhorn의 협력은 포괄적이고 상호 보완적입니다. 불확실성과 장애물을 줄입니다."가상 환경을 구축하려면 광범위한 리소스와 컴퓨팅 성능이 필요합니다. Gemhorn의 CTO인 Eric Chang은 GIGABYTE W771-Z00 워크스테이션의 성능에 만족했습니다. "워크스테이션은 뛰어난 확장성과 강력한 성능을 제공합니다. 단일 워크스테이션으로 BIM 기술 및 개발 환경에 대한 요구 사항을 충족할 수 있습니다. 또한 실제 설정 프로세스가 매우 원활했고 소프트웨어나 하드웨어 호환성 문제도 없었습니다." 실제 전시장에서 작동하는 워크스테이션은 같은 전시장 내 숨겨진 서버룸에 배치된다. 그래서 전시장에서는 기계음이 거의 감지되지 않습니다. 방문객은 조용하고 편안한 환경에서 가상환경이 제공하는 성능과 편리함을 완벽하게 경험할 수 있습니다.     VDI 및 GPU 아키텍처로 3D 실시간 협업 워크플로우 생성 많은 유명 해외 건축 및 조경 계획 회사에서는 VDI 아키텍처와 NVIDIA Omniverse가 포함된 향상된 GPU 컴퓨팅 시스템을 사용하여 다양한 프로젝트에서 실시간 협업으로 하이브리드 워크플로우를 촉진했습니다. 예를 들어 Browning Day, CannonDesign, Multistudio 등 미국 기업에서는 하이브리드 작업 프로세스를 사용하여 다양한 지역의 디자이너와 고객 간의 효과적인 커뮤니케이션을 촉진하고 3D 렌더링 및 정보 보안 관리를 크게 향상시킵니다. Wang 씨는 동일한 솔루션을 채택하려는 기업이 "완전한 하이브리드 배포" 개념을 기반으로 계획을 진행할 수 있다고 제안했습니다. 그는 말했다, GIGABYTE는 전문 워크스테이션부터 다양한 유형의 서버 설계 및 데이터 센터 구축에 이르기까지 다양한 프런트 엔드 리소스의 요구 사항을 충족하는 제품을 출시했습니다. 또한 기존 환경과 향후 확장을 위해 서버룸과 엔드포인트에서 유연한 확장과 최적의 배포를 보장하기 위해 공냉식 및 수냉식 솔루션을 모두 제공합니다." GIGABYTE는 전문 워크스테이션부터 다양한 유형의 서버 설계 및 데이터 센터 구축에 이르기까지 다양한 프런트 엔드 리소스의 요구 사항을 충족하는 제품을 출시했습니다. 또한 기존 환경과 향후 확장을 위해 서버룸과 엔드포인트에서 유연한 확장과 최적의 배포를 보장하기 위해 공냉식 및 수냉식 솔루션을 모두 제공합니다."요약하면, "원격 교육 및 3D 디자인 협업" 솔루션에는 자원 할당과 원격 작업이라는 두 가지 핵심 개념이 포함됩니다. 이 솔루션은 학교는 물론 다양한 지역의 사무실, 작업장, 연구소 등 많은 사람 간의 프로젝트 커뮤니케이션과 협업이 필요한 조직에 매우 적합합니다.

상세보기

[GIGABYTE] AI에 적합한 서버를 선택하는 방법은 무엇입니까? 1부: CPU 및 GPU

2023.09.25

[GIGABYTE] AI에 적합한 서버를 선택하는 방법은 무엇입니까? 1부: CPU 및 GPU

생성적 AI와 기타 인공 지능의 실용적인 응용이 등장하면서 "AI 서버"의 조달은 자동차부터 의료까지 다양한 산업, 학계 및 공공 기관 모두에서 우선 순위가 되었습니다. GIGABYTE Technology의 최신 기술 가이드에서는 가장 중요한 두 가지 구성 요소인 CPU와 GPU부터 시작하여 AI 서버의 8가지 주요 구성 요소를 단계별로 안내합니다. 올바른 프로세서를 선택하면 슈퍼컴퓨팅 플랫폼을 활성화하고 AI 관련 컴퓨팅 워크로드를 가속화할 수 있습니다.     최첨단 기술의 역동적인 흐름을 잘 알고 있는 독자라면 IT  믹스 에 "AI 서버"를 도입하는  것이 공공 부문이든 민간 부문이든 관계없이 광범위한 조직의 우선순위가 되었음을 관찰했을 것입니다. 학술, 연구, 제조 또는 서비스에 중점을 두고 있는지 여부. 인공 지능이  모든 분야에서 "힘 승수"임이 입증된 것은 놀라운 일이 아닙니다 . 몇 가지 예를 통해 설명하자면 생성적 AI는 마케팅, 기록 유지, 고객 관계에 도움이 될 수 있으며,  컴퓨터 비전 과 같은 다른 AI 발명품도 도움이 될 수 있습니다. 유통 센터나 고속도로 요금소와 같은 다양한 시설의 생산성과 효율성을 향상시킬 수 있습니다. 대부분의 기업과 기관의 경우 더 이상 AI 서버를 구매해야 하는지의 문제가 아니라, 기대에 부응할 수 있는지 확인하기 위해 '어느 서버'를 구매해야 하는지의 문제입니다. AI 및 고성능 컴퓨팅(HPC)분야의 업계 선두주자인 GIGABYTE Technology  서버 솔루션에서는 적합한 AI 서버를 선택하는 단계를 안내하기 위해 이 기술 가이드를 구성했습니다. 두 부분으로 구성된 이 기사 중 1부에서는 AI 서버의 핵심인 두 가지 프로세서 제품인 CPU와 GPU에 중점을 둘 것입니다. 귀하의 특정 요구 사항에 맞는 서버 프로세서가 무엇인지, 귀하의 도구 키트에 강력한 슈퍼컴퓨팅 AI 플랫폼을 추가하는 현명한 결정을 내릴 수 있는 방법에 대해 조언해 드립니다.자세히 알아보기: 《  인공 지능 개발 및 응용을 위한 GIGABYTE AI 서버소개  》 《 GIGABYTE의 HPC 서버 에 대한 추가 정보  》     AI 서버에 적합한 CPU를 선택하는 방법은 무엇입니까? 서버에 관한 모든 논문이 그러하듯이 우리의 분석은   모든 컴퓨터의 심장이자 영혼인 중앙 처리 장치(CPU) 에서 시작됩니다. CPU는 사용자로부터 명령을 수신하고 원하는 결과를 제공하는 "명령 주기"를 완료하는 주요 "계산기"입니다. 따라서 AI 서버를 그토록 강력하게 만드는 가장 큰 부분은 그 중심에 있는 CPU입니다.현재 제공되는 제품에 익숙한 분들은 AMD와 Intel CPU를 하나씩 비교할 수 있을 것으로 예상할 수 있지만 그보다 더 복잡합니다. 사실, 이 두 업계 리더는 Intel의 4세대 Intel® Xeon® CPU 라인과 AMD의 AMD EPYC™ 9004 CPU 라인이 CISC 의 정점을 대표하며 CPU 비즈니스의 최전선에 서 있습니다. 기반 x86 프로세서. 성숙하고 검증된 에코시스템과 결합된 탁월한 성능을 찾고 있다면 이러한 칩 제조업체의 최고 제품 중 하나를 선택하면 문제가 없을 것입니다. 또는 예산이 문제라면 Intel® Xeon® 및 AMD EPYC™ CPU의 이전 버전을 고려해 볼 수 있습니다. AMD의 Ryzen™ 시리즈는 더 적은 수의 코어  와 더 제한된  멀티스레딩 기능 으로 AI 워크로드를 처리할 수 있는 경우 좋은 입문용 선택이기도 합니다   .더 알아보기: 《 AMD CPU로 구동되는 GIGABYTE 서버 에 대한 추가 정보  》 《 Intel CPU로 구동되는 GIGABYTE 서버에대한 추가 정보  》그러나 끊임없이 확장되는 AI 환경에서는 AMD와 Intel 외에 다른 선택이 있습니다. RISC 기반 CPU는 슈퍼컴퓨팅 분야에서 강력한 경쟁자가 되었습니다. RISC 프로세서가 채택한 보다 단순화된 명령 세트 아키텍처(ISA)는 더 많은 코어를 포함하면서 전력 소비가 적다는 것을 의미하므로 x86 프로세서와 동등한 컴퓨팅 능력을 보여줄 수 있습니다. 거의 모든 모바일 및 엣지 장치 (읽기: 스마트폰)가 RISC 칩에서 실행된다는 사실은   RISC 기반 CPU가  "클라우드 네이티브" 라는 추가적인 이점을 가지고 있음을 의미합니다.즉, 현장의 장치에서 수집한 데이터를 변환하기 위해 컴파일러가 필요하지 않습니다. 따라서 AI 워크로드에 모바일 및 에지 장치에서 제공되는 데이터가 포함된 경우 RISC 제품을 고려해 볼 수 있습니다.RISC 기반 CPU 중 가장 유명한 라인 중 하나가 ARM입니다. GIGABYTE는 Ampere가 구축한 CPU로 구동되는 광범위한 ARM 서버를 보유하고 있습니다. 가장 발전된 Ampere® CPU는 단일 프로세서에 약 200개의 코어를 포함하는 동시에 동급 최고의 와트 대비 성능 비율을 제공하여 TCO를 줄이는 데 큰 도움이 됩니다. ARM 라인업에 추가된 또 다른 흥미로운 새 기능은 NVIDIA Grace™ CPU 슈퍼칩입니다. 이 슈퍼칩은 ARM 코어와 900GB/s NVLink-C2C 인터커넥트, 오류 정정 코드(ECC) 메모리를 갖춘 세계 최초의 LPDDR5X 등 NVIDIA 특허 기능을 결합합니다. NVIDIA의 AI 소프트웨어 제품군을 자주 사용하고 해당 CPU 하드웨어를 채택하고 싶다면 GIGABYTE의  H263-V60  고밀도 서버가 AI 슈퍼컴퓨팅 플랫폼입니다.자세히 알아보기:《에 대한 추가 정보 GIGABYTE의 ARM 서버》 《 GIGABYTE의 고밀도 서버에 대한 추가 정보  》 이 시점에서는 서버에 CPU 소켓을 1개 또는 2개 원하는지 결정하는 일만 남았습니다. 2개의 CPU 소켓으로 구성된 고밀도 구성은 일반적으로  더 높은 전력 소비와 더 까다로운 열 관리 비용으로 더 나은 성능과 가용성을 제공합니다. 이것이 문제인 경우 AI 컴퓨팅 요구 사항을 충족할 만큼 CPU에 충분한 코어가 있는 한 단일 소켓 변형을 고려할 수 있습니다. 완전하지는 않지만 이 순서도는 AI 워크로드에 가장 적합한 CPU 설정에 대한 좋은 아이디어를 제공합니다. AI 서버에 적합한 GPU를 선택하는 방법은 무엇입니까? AI 서버의 중수소는  그래픽 처리 장치 또는 GPU 입니다 . 이는 CPU가 AI 워크로드를 훨씬 더 빠르게 처리하는 데 도움이 되는 가속기 역할을 합니다. 그 이유는 GPU에는 CPU 도구 상자의 단순화된 버전이 탑재되어 있지만 그 수가 훨씬 더 많기 때문입니다. 결론은 GPU가 작업을 더 작은 세그먼트로 나누고  병렬 컴퓨팅을 통해 동시에 처리할 수 있다는 것입니다 . 특히 워크로드가 그래픽 데이터로 구성된 경우(AI의 경우가 자주 발생함)자세히 알아보기:《기술 가이드:  CPU와 GPU: 귀하에게 적합한 프로세서는 무엇입니까? 》 《 GIGABYTE의 GPU 서버에 대한 추가 정보  》AI 서버용 GPU를 선택할 때 다음과 같은 질문을 함으로써 분야를 좁히는 데 도움이 될 수 있습니다. AI 워크로드의 특성이 시간이 지남에 따라 급격하게 변할 가능성이 있습니까? 대부분의 최신 GPU는 매우 특정한 작업을 위해 설계되었습니다. 해당 칩 아키텍처는 AI 개발 또는 애플리케이션의 특정 하위 집합에 적합할 수 있습니다. 그러나 서버가 다양한 범위의 과제를 처리할 수 있는 유연성을 발휘하기를 원한다면  FPGA  ("필드 프로그래밍 가능 게이트 어레이") 구성을 기반으로 하는 GPU가 더 나은 선택일 수 있습니다. ASIC("응용프로그램별 집적 회로") 칩과 달리 FPGA 칩은 제조 후 다시 프로그래밍하여 다양한 기능을 수행할 수 있습니다. AMD가 인수한 Xilinx는 유명한 FPGA 칩 제조업체였습니다. 많은 GIGABYTE 서버는 FPGA 가속기와 호환됩니다.다음으로 고려해야 할 질문은 AI 훈련  이나  추론 에 주로 참여할 것인지입니다  . 이 두 프로세스는 "제한된 메모리" AI의 모든 최신 반복의 기초입니다.  훈련 중에 AI 모델은 수십억, 심지어는 수조 개의 매개변수가 포함된 대량의  빅데이터를 수집합니다. 일관되게 올바른 출력을 생성할 수 있을 때까지 알고리즘의 "가중치"를 조정합니다. 추론 중에 AI는 훈련의 '기억'을 활용하여 현실 세계의 새로운 입력에 반응합니다. 이 두 프로세스는 모두 컴퓨팅 집약적이므로 작업 속도를 높이기 위해 GPU 확장 카드와 모듈이 설치됩니다.자세히 알아보기:《기술 가이드:  생성 AI를 활용하려면 "훈련" 및 "추론"에 대해 배워야 합니다. 》《자주 묻는 10가지 질문으로 AI에 대한 지식을 강화하세요》AI 훈련의 경우 특정 GPU에는 프로세스를 간소화할 수 있는 특수 코어와 "엔진"이 내장되어 있습니다. 좋은 예는 32페타플롭스 이상의 FP8  딥 러닝  성능을 제공할 수 있는 NVIDIA HGX™ H100 8-GPU입니다. 이 모듈은 GIGABYTE의  G593-SD0 ,  G593-SD2 및  G593-ZD2  서버에 통합되어 있습니다. NVIDIA HGX™ H100 4-GPU라고 하는 4개의 GPU가 포함된 모듈 변형도 있습니다. GIGABYTE G363-SR0 에 통합되어  액체 냉각을 지원하여  데이터 센터의  PUE를  높이는 동시에 칩의 잠재력을 최대한 활용합니다. . 각 H100 SXM5 GPU에는 새로운 FP8 데이터 유형을 사용하는 4세대 Tensor 코어와 모델 훈련을 최적화하는 "Transformer Engine"이 포함되어 있습니다. 최대 900GB/s의 대역폭을 제공하는 NVLink®는 프로세서를 연결하는 데 사용되며 NVSwitch는 클러스터를 조정하는 데 사용됩니다. AMD의 Instinct™ MI300X는 OCP(Open Compute Project)를따르는 강력한 대안입니다.  OAM 표준. 그 전문 분야 중 하나는 엄청난 메모리와 데이터 처리량인데, 이는 LLM(대형 언어 모델)에서 볼 수 있는 것과 같은 생성 AI 워크로드에 중요합니다. 이를 통해 400억 개의 매개변수가 있는 모델인 Falcon-40과 같은 LLM을 단일 MI300X 가속기에서 실행할 수 있습니다. AMD Instinct™ 플랫폼은 AI 컴퓨팅의 최첨단 성능을 위해 최대 8개의 MI300X GPU를 결합하는 모듈입니다. 곧 GIGABYTE 서버에 출시될 예정입니다.항상 그렇듯이, 예산 제약 내에서 유지하기 위해 약간의 성능을 포기해야 하거나 AI를 교육하는 데이터 세트가 그다지 방대하지 않은 경우 AMD 및 NVIDIA의 다른 제품을 고려할 수 있습니다. GIGABYTE는 AMD Instinct™ MI200 시리즈를 지원하는 포괄적인 솔루션 제품군을 보유하고 있습니다.  가속기의. GIGABYTE G493-SB0 ,  G293-S40 ,  G293-S41 및  G293-S45 에서 지원되는 NVIDIA L40S GPU는  AI 훈련에도 적극 권장됩니다. R162  -Z11  랙 서버는 컴퓨팅 모듈은 포함하지 않지만   최대 3개의 NVIDIA GPU를 지원할 수 있는 PCIe 슬롯이 있는 다목적 서버의 또 다른 좋은 예입니다.자세히 알아보기: 《 GIGABYTE의 랙 서버에 대한 추가 정보  》《사례 연구:  GIGABYTE GPU 서버가 NCKU의 슈퍼컴퓨팅 챔피언십 우승을 도왔습니다 .》 GPU는 AI 워크로드 처리의 핵심이므로 실제 요구 사항에 따라 올바른 옵션을 선택하는 것이 중요합니다.   AI 추론을 위해서는 사용자 시나리오별 장점이 있는 GPU를 찾아보세요. 예를 들어, 시장에 출시된 최고의 AI 추론 서버 중 하나는 GIGABYTE  G293-Z43 입니다 . 이 서버에는 2U 섀시에 16개의 AMD Alveo™ V70 카드로 구성된 고밀도 구성이 들어 있습니다. 이러한 GPU는 외부 메모리 없이 데이터가 AI 모델의 계층을 통과할 수 있게 해주는 적응형 데이터 흐름 아키텍처로 유명한 AMD의 XDNA™ 아키텍처를 기반으로 합니다. 이는 성능을 향상시키고 대기 시간을 낮추는 효과가 있어 G293-Z43은 매우 까다로운 AI 워크로드에 이상적인 솔루션이 됩니다. 여러 개의 PCIe Gen 4(또는 그 이상) 확장 슬롯이 있는 GIGABYTE 서버는 AI 추론 워크로드 처리를 목표로 하는 NVIDIA A2 Tensor Core GPU 및 L4 Tensor Core GPU와도 호환됩니다.추론 워크로드가 주로 클라우드에서 발생하는 경우 전력 효율성 및 신호 처리와 같은 다른 속성이 거래를 성사시킬 수 있습니다. 이 시나리오에서는 클라우드 컴퓨팅의 고유한 요구 사항을 해결하므로 에지에서 보다 효과적으로 추론할 수 있는 Qualcomm® Cloud AI 100 GPU를 고려할 수 있습니다  . 이러한 가속기는 G 시리즈 GPU 서버, R 시리즈 랙 서버 및 E 시리즈 엣지 서버를 포함한 다양한 GIGABYTE 서버에 배포될 수 있습니다  .마지막으로, AI 훈련에 대한 컴퓨팅 요구 사항은 일반적으로 추론보다 높기 때문에 대부분의 훈련 서버는 추론 워크로드에도 사용할 수 있습니다. 업계 리더들이 주도하는 또 다른 흥미로운 트렌드는 모든 범주의 AI 및 HPC 워크로드에 대해 두 가지 장점을 모두 제공하는 "CPU + GPU" 패키지입니다. GIGABYTE의 H223-V10  및  H263-V11  고밀도 서버에서 사용할 수 있는 NVIDIA Grace Hopper™ Superchip  과 AMD의 첫 번째 APU(가속 처리 장치)인 AMD Instinct™ MI300A는 모두 이 새로운 사고 방식의 완벽한 예입니다. . 현재 존재하는 가장 정교한 슈퍼컴퓨팅 플랫폼으로 작업하려면 이 제품을 선택하십시오."AI에 적합한 서버를 선택하는 방법"에 관한 GIGABYTE 기술 가이드를 읽어주셔서 감사합니다. 1부: CPU 및 GPU”. AI 서버의 다른 구성 요소를 선택하는 방법에 대해 자세히 알아보려면 "2부: 메모리, 스토리지 및 기타"를 읽어보세요. 이 기사가 도움이 되고 유익한 정보가 되었기를 바랍니다.

상세보기

[GIGABYTE] 인공 지능에 관해 자주 묻는 10가지 질문

2023.09.14

[GIGABYTE] 인공 지능에 관해 자주 묻는 10가지 질문

인공 지능. 세상은 그 이름으로 떠들썩합니다. 그러나 우리의 세계와 역사를 재편하고 있는 이 흥미롭고 새로운 추세에 대해 얼마나 알고 계십니까? 걱정하지 마세요, 친구들. GIGABYTE 기술이 당신을 보호해 드립니다. AI의 모든 면에서 알아야 할 내용을 빠르고 읽기 쉽고 소화하기 쉬운 10개의 Q&A로 제공합니다!     1. 인공지능(AI)이란 무엇입니까? 인공 지능은  1950년대에 처음 제안된 컴퓨터 과학 의 한 분야로, 독립적인 의사 결정 및 비판적 사고와 같이 인간과 유사한 행동을 보이는 기계를 만드는 것과 관련이 있습니다. 그 이유는 그러한 "똑똑한" 기계가 더 많은 문제를 해결할 수 있을 것이고, 인간이 작업하기 더 쉬울 것이기 때문입니다.지난 수십 년 동안 AI를 개발하기 위해 성공 정도에 따라 다양한 방법이 활용되었습니다. 2010년대부터 머신러닝  ,  딥러닝 등 혁신적인 신기술 덕분에 AI는 비약적으로 발전했습니다  . 현재 AI 상태는 컴퓨터 비전을 통해 시각적 패턴을 인식하고 , 컴퓨터 비전을 통해 인간과 대화할  수 있을 정도로 최첨단이다. 자연어 처리(NLP)를 활용 하고, 생성 AI를 활용해 사실적인 이미지부터 관광 일정까지 다양한 콘텐츠를 제작합니다. 업계 리더들은 AI가 곧 자율주행차 조종과 같이 전통적으로 '공상과학'으로 간주되었던 더 많은 작업을 수행할 수 있게 될 것이라고 예측합니다.자세히 알아보기:《AI의 힘:  자동차 및 운송 산업에서 AI의 이점을 활용하는 방법》《사례 연구:  GIGABYTE를 사용하여 자율 주행 자동차의 두뇌 구축》     2. AI에는 어떤 유형이 있나요? AI는 다양한 기술적 혁신을 포괄하는 용어이기 때문에 컴퓨터에서 체스를 두는 AI와 콘텐츠를 생성하거나 자동차를 운전할 수 있는 AI를 혼동하기 쉽습니다. 더 쉽게 하기 위해 AI를 "능력"이나 "기능"으로 구분할 수 있습니다.'능력'을 기반으로 하는 AI의 세 가지 유형은 좁은 인공지능(ANI, '응용 AI' 또는 '약한 AI'라고도 함), 인공일반지능(AGI, '풀 AI' 또는 '강한 AI'라고도 함)입니다. 및 인공 초지능("ASI" 또는 "초지능")이 있습니다. 현재 AI의 모든 형태는 ANI입니다. 즉, 매우 특정한 작업을 수행하도록 설계되었으며 새로운 기술을 습득할 수 없습니다. AGI는 새로운 작업을 가르칠 수 있다는 점에서 인간과 동등합니다. 이는 아직 미래의 일이지만 생성 AI와 같은 발명으로 기반이 마련되었습니다. ASI는 아이작 아시모프(Isaac Asimov)와 아서 C. 클라크(Arthur C. Clarke)가 쓴 것과 같이 AI가 지능 면에서 인간을 능가하는 공상 과학 소설의 소재입니다.AI는 '기능성'에 따라 '반응형 기계', '제한된 메모리', '마음 이론', '자기 인식'으로 구분할 수 있습니다. 가장 유명한 "반응형 기계"는 체스나 바둑에서 인간 그랜드마스터를이긴 슈퍼컴퓨터입니다. 슈퍼컴퓨터는 규칙을 기억하고 자극에 반응할 수 있지만 기억을 유지할 수 없기 때문에 "연습"을 통해 향상되지 않습니다. 미디어 스트리밍 플랫폼에서 사용하는 추천 엔진과 이메일 서버에서 사용하는 스팸 필터도 "반응형 시스템"입니다. "제한된 메모리"는 과거 데이터를 통해 학습할 수 있기 때문에 더욱 발전되었습니다. AI는   방대한 양의  빅데이터를 분석  하고 알고리즘의 매개변수를 조정하는 AI 훈련을 통해 '학습'합니다. AI 추론 중 , AI가 새로운 정보와 상호 작용하는 곳에서 올바른 결정을 내리기 위해 훈련을 활용합니다. 생성 AI부터 자율주행차까지 대부분의 최신 형태의 AI는 '제한된 메모리' AI입니다.'마음 이론'과 '자기 인식' AI는 모두 여전히 이론적인 개념입니다. “마음 이론” AI는 인간의 감정을 이해하고 동일한 방식으로 반응할 수 있습니다. 왜냐하면 그것이 인간 의사소통의 핵심 부분이기도 하기 때문입니다. "자기 인식" AI는 인간 사용자뿐만 아니라 자신을 인공 구조물로 이해합니다. 그러한 AI는 자신의 "감정"과 "목표"를 개발하여 실제로 인간의 통제를 넘어서게 됩니다. AI를 더 잘 이해하기 위해 '능력'과 '기능'으로 구분할 수 있습니다. 현재 가장 발전된 형태의 AI조차도 공상 과학 소설에 묘사된 AI와는 여전히 거리가 멀습니다. 3. AI는 어떻게 작동하나요? 기본적으로 AI는 새로운 데이터를 해석하고, 실행해야 하는 알고리즘을 이해하고, 데이터를 처리하고, 결과를 제공할 수 있는 대규모 데이터 세트와 결합된 일련의 컴퓨터 알고리즘입니다. 최근 몇 년 동안 AI 개발은 딥 러닝이라는 기계 학습의 하위 집합에 의해 가속화되었습니다. 딥 러닝을 통해 AI는 경험을 통해 학습하고 인간의 개입이 거의 또는 전혀 없이 행동을 수정할 수 있습니다.AI가 학습에 참여하는 방식을 AI 훈련이라고 합니다. 훈련하는 동안 수십억, 심지어는 수조 개의 매개변수가 포함된 막대한 데이터 세트가 인간의 두뇌처럼 구조화된 인공 신경망(ANN)에 입력됩니다. 데이터가 네트워크의 각 계층을 통과할 때 알고리즘은 출력의 유효성을 확인하고 가중치 점수 또는 "편향"을 데이터 매개변수에 할당합니다. 예측(순방향 전파)과 피드백(역방향 전파)의 반복적인 반복을 통해 가중치가 매우 정확해지기 때문에 항상 네트워크를 통해 올바른 경로가 선택됩니다. 간단히 말해서, AI는 다양한 입력에 대한 올바른 응답이 무엇인지 추측하는 연습을 여러 번 수행하여 새로운 데이터가 제시될 때 항상 올바른 추측을 내립니다.AI 추론 중에 AI 모델은 실제 세계에서 레이블이 지정되지 않은 새로운 데이터와 상호 작용합니다. 올바른 출력을 생성하기 위해 훈련의 "기억"에 의존합니다. 추측이 정확한지 여부에 관계없이 다음 AI 훈련을 위해 결과를 저장할 수 있어 AI가 더욱 향상됩니다.자세히 알아보기:《   인공 지능 개발에 사용되는 GIGABYTE AI 서버소개》 《기술 가이드:  생성 AI를 활용하려면 "훈련" 및 "추론"에 대해 배워야 합니다》     4. AI를 통해 어떤 혜택을 얻을 수 있나요? 문제의 사실은 당신이 이미 그렇다는 것입니다. 검색 엔진에 질문을 입력하면 원하는 결과가 나옵니다. 고속도로에서 운전할 때 전자 요금 징수 시스템이 속도를 줄이지 않고도 번호판을 읽을 때; ChatGPT에 이메일 작성을 요청하는 것이 현대 AI의 이점입니다.앞으로 AI는 다양한 산업에 의미 있는 변화를 가져와 우리 일상생활을 완전히 변화시킬 것이 확실합니다. 몇 가지 예를 들어보면  첨단 운전자 보조 시스템(ADAS)이 있습니다. 우리 자동차는 진정한 자율성을 달성할 때까지 정교함의 다양한 단계를 거쳐 발전할 것입니다. 의사는 AI 지원 의료 영상을 사용하여 질병의 징후를 보다 빠르고 정확하게 발견할 수 있습니다. 농부들은 AI를 사용하여 정확한 날씨 예측을 하거나 위성 이미지를 통해 위험한 감염 증상을 발견함으로써 농작물을 보호할 수 있습니다.적극적으로 나서면 AI의 혜택을 더욱 누릴 수 있다는 것은 말할 필요도 없습니다. 결국, 현대 AI 애플리케이션은 너무나 새롭고 판도를 바꾸고 있으므로 다양한 분야의 전문가들이 매일 이를 활용하는 혁신적인 방법을 발견하고 있습니다. AI의 보상을 얻을 수 있는 방법은 여러분의 상상력에 달려 있습니다.자세히 알아보기:《사례 연구:  스페인의 IFISC는 GIGABYTE 서버를 사용하여 귀중한 올리브 숲을 보호합니다.》《사례 연구:  GIGABYTE PILOT, 대만 최초의 자율 주행 버스 운행》     5. AI를 다루는 사람들은 어떤 사람들인가요? 어떤 의미에서 우리는 모두 AI 최종 사용자입니다. 학생이든 직업이 있든, 제조업이든 서비스업에 종사하든, 18륜차를 운전하든 섬세한 뇌 수술을 하든 AI는 어떤 형태나 형태로든 빵과 버터의 일부가 되었습니다. AI 서비스를 개발하고 제공하는 사람들에 대해 이야기하고 있다면 이는 하드웨어 제조업체 업스트림, AI 모델 개발자, 모델 허브 및 MLOps  서비스 미드스트림,   전용 애플리케이션을 제공하는 클라우드 서비스 제공업체(CSP) 로 시작하는 전체 공급망이 될 것입니다.  및 다운스트림 서비스. 이 분야는 다양한 분야로 가득 차 있고 모든 종류의 전문가가 거주하는 광범위한 분야입니다. 실제로 유일하게 통합된 스레드 중 하나는 모든 전문가가 동일한 도구 , 즉 다음 섹션에서 논의할 서버를 사용한다는 것입니다.학계 및 연구 기관도 공급망에서 중요한 역할을 한다는 점에 유의해야 합니다. 학계는 수익성 있는 사업으로 전환될 수 있는 혁신적인 서비스를 창출하든, 참가자들이 기존 도구를 사용하여 세계 기록을 경신하는 슈퍼컴퓨팅 대회를 개최하든 관계없이 항상 AI 개발의 한계를 뛰어넘고 있습니다. 이들 연구자가 주로 서버를 대상으로 작업한다는 사실도 놀랄 일이 아닙니다.자세히 알아보기:《사례 연구:  Rey Juan Carlos University가 AI를 통해 세포 노화 메커니즘 탐구》《사례 연구:  GIGABYTE가 NCKU 슈퍼컴퓨팅 팀이 NLP 세계 기록을 경신하도록 지원》 다음은 AI 공급망의 주요 플레이어에 대한 몇 가지 예입니다. GIGABYTE는 투자사인 Myelintek을 통해 서버 솔루션뿐만 아니라 MLOps 서비스도 제공합니다. 6. AI에는 어떤 종류의 컴퓨터가 사용되나요? AI는 서버라고 불리는 특별한 종류의 엔터프라이즈급 컴퓨터에서 실행됩니다. 개인용 컴퓨터와 모바일 장치도 AI를 실행할 수 있지만 소비자급 하드웨어로 인해 그 기능이 심각하게 제한됩니다. 이것이 대부분의 AI 서비스가 PC나 스마트폰을 클라우드의 컴퓨팅 리소스에 연결할 수 있도록 인터넷 연결을 요구하는 이유입니다.서버 사용의 주요 이점은 이러한 기능을 수행하기 위해 특별히 구축된 다양한 서버에 특수 역할을 할당할 수 있다는 것입니다. 예를 들어 일부 서버는 고성능 컴퓨팅(HPC) 용으로 설계되었지만  다른 서버는 스토리지 측면에서 탁월할 수 있습니다. 사용자의 처분에 특화된 서버 네트워크를 배치함으로써 효율적이고 효과적이며 신뢰할 수 있는 다양한 AI 서비스를 이용할 수 있습니다.서버는 일반적으로 다음 위치에 보관됩니다.  중단 없는 운영과  고가용성을 보장하기 위한 데이터 센터  또는  서버 팜 . AWS(Amazon Web Service), GCP(Google Cloud Platform), Microsoft Azure와 같은 CSP는 수천 대의 서버를 호스팅하기 위해 대규모 데이터 센터를 구축할 수 있습니다. 내부 AI 서비스를 호스팅하기 위해 민간 조직 내에 소규모  서버실을  구축할 수도 있습니다. 실제로 워크스테이션으로 알려진 서버 클래스인 일부 강력한 데스크톱 컴퓨터는 적당한 양의 AI 작업 부하도 처리할 수 있습니다. 자세히 알아보기: 《  GIGABYTE HPC 서버를 구입하여  고성능 컴퓨팅의 이점을 누리십시오》 《  데스크톱에 엔터프라이즈급 컴퓨팅을 배포하려면 GIGABYTE 워크스테이션을 선택하십시오  》《기술 가이드:  서버란 무엇입니까? 》     7. AI 서버란 무엇인가요? 맞춤형 서버 품질로 인해 전문 AI 서버가 탄생했습니다. GIGABYTE에는  AI 서버 및 기타 제품 주제에 대한 전용 웹페이지가 있습니다 . 간단히 말하면, AI 서버는 다음과 같은 점에서 일반 서버와 다릅니다.AI 훈련과 AI 추론 모두 컴퓨팅 집약적이므로 강력한 프로세서가 서버에 추가되어 슈퍼컴퓨팅 플랫폼으로 전환됩니다. 일반적으로 서버에는  중앙 처리 장치(CPU)  와  그래픽 처리 장치(GPU)라는 두 가지 유형의 프로세서가 있습니다 . AI 서버에는 두 종류의 칩의 최신 버전이 포함될 가능성이 높습니다.CPU의 경우 사용자가 CISC와 함께 작업하려는 경우 AMD 또는 Intel에서 만든 최상위 x86 칩이 선택됩니다  .기반 에코시스템 또는 사용자가 RISC 기반 제품 의 클라우드 네이티브 특성을 선호하는 경우 ARM 칩  . 반면, GPU는 CPU가 더욱 빠르게 계산하도록 돕는 가속기입니다. AI 워크로드의 특성에 따라 사용자는 다양한 GPU 모듈이나 확장 카드를 선택할 수 있습니다. 예를 들어, GIGABYTE  G593-SD0 ,  G593-SD2 및  G593-ZD2  는 지구상에서 가장 강력한 AI 훈련 모듈 중 하나인 NVIDIA HGX™ H100 8-GPU와 통합된 GIGABYTE의 세 가지 서버입니다. GIGABYTE  G293-Z43은  16개의 AMD Alveo™ V70 카드로 구성된 고밀도 구성을 갖추고 있어 AI 추론에 최적화된 플랫폼입니다.메모리, 스토리지, PSU와 같은 AI 서버의 다른 구성 요소도 서버가 방대한 양의 데이터를 효율적으로 처리하고 정교한 AI 계산을 수행할 수 있도록 최신 혁신 기술을 채택할 가능성이 높습니다.자세히 알아보기: 《 AMD CPU로 구동되는 GIGABYTE 서버에 대한 추가 정보  》 《 Intel CPU로 구동되는 GIGABYTE 서버 에 대한 추가 정보  》 《 GIGABYTE의 ARM 서버 에 대한 추가 정보  》 간단히 말해서 AI 서버는 최첨단 프로세서와 기타 구성 요소를 사용하여 가장 강력한 컴퓨팅 성능으로 AI 개발 및 응용 프로그램을 지원합니다. 8. AI 발전에서 GIGABYTE 기술의 역할은 무엇입니까? GIGABYTE Technology는 AI 및 HPC 서버, 서버 마더보드 및 워크스테이션 분야에서 세계적으로 유명한 업계 리더입니다. AI 발전에서 AI의 역할은 하드웨어와 소프트웨어를 모두 포괄합니다. 서버 측면에서 GIGABYTE는 AI 서버의 전문 라인뿐만 아니라 데이터 센터에서 다양한 역할을 수행하는 다양한 서버 시리즈의 포괄적인 포트폴리오를 보유하고 있습니다.  예를 들어, GPU 가속  이기종 컴퓨팅을 위한 G-시리즈 GPU 서버 ,   데이터 스토리지를 위한  S-시리즈 스토리지 서버 , 다양한 애플리케이션을 위한 R-시리즈 랙 서버  , 컴팩트한  멀티 노드  컴퓨팅  을 위한 H-시리즈 고밀도 서버가 있습니다.  차대.GIGABYTE는 공급망 상위에 있는 칩 제조업체와 긴밀히 협력하여 당사의 서버 솔루션에 AMD, Intel, NVIDIA 및 기타 공급업체의 최신 CPU 및 GPU가 장착되도록 합니다. 업계의 다른 주요 업체들과의 긴밀한 관계를 통해 GIGABYTE를 구입하시면 AI를 위한 가장 발전되고 인증된 컴퓨팅 플랫폼을 얻게 됩니다. 예를 들어, GIGABYTE G593-SD0 GPU 서버는 NVIDIA 인증을 받은 최초의 SXM5 서버였습니다.  GIGABYTE는 또한 실험실에서 도로 상황을 시뮬레이션하기 위해 대만 대학(NTU)이 개발한 "고정밀 교통 흐름 모델" 과 같이 엣지 장치의 많은 데이터로 작업하는 사용자를 위해 ARM CPU로 구동되는 서버를 생산하는 데 앞장섰습니다.  자율주행차 테스트를 위해핵심 서버 구성 요소 외에도 GIGABYTE에는 AI 작업 부하를 처리하는 데 도움이 되는 동시에 다른 이점을 제공하는 최첨단 발명품도 포함되어 있습니다.  GIGABYTE 는 프로세서에서 발생하는 열을 방출하기 위해 공기 대신 액체 냉각수를 사용하는 완전한  액체 냉각 및 침수 냉각 서버 솔루션 라인을 보유하고 있습니다. 이러한 혁신적인 열 관리 시스템은 프로세서가 최대  TDP를 달성하는  동시에 데이터 센터의  PUE를 향상시켜 탄소 배출을 효과적으로 줄이는 데 도움이 됩니다. 기타 부가 가치 서비스로는 GIGABYTE 서버 구입 시 무료로 제공되는 원격 관리 소프트웨어 도구인 GIGABYTE Management Console(GMC) 및 GIGABYTE Server Management(GSM)가 있습니다.소프트웨어 측면에서 GIGABYTE의 피투자 회사인 MyelinTek은  MLOps용 DNN 교육 어플라이언스를 제공합니다  . 이 패키지는 AI 개발자에게 데이터 세트를 관리하고 AI 모델 분석에 참여할 수 있는 이상적인 환경을 제공합니다.     9. AI의 주요 개발자는 누구입니까? AI 개발의 대부분은 컴퓨팅 기능의 발전에 달려 있기 때문에 앞서 언급한 AMD, Intel, NVIDIA 등의 많은 칩 개발자는 AI 기술의 중요한 선구자로 간주됩니다. GIGABYTE Technology와 같은 서버 브랜드는 AI 개발 및 응용 프로그램에 참여하는 사용자에게 최신 제품을 제공하는 데 도움을 줍니다. 예를 들어 마드리드의 Rey Juan Carlos University는  GIGABYTE 서버로 구성된 컴퓨팅 클러스터를  사용하여 최첨단 AMD EPYC™ 및 Intel® Xeon® Scalable CPU는 물론 NVIDIA HGX™ GPU 컴퓨팅 모듈을 활용합니다. 세포 노화에 대한 연구.알파벳, 아마존, 애플, IBM, 메타, 마이크로소프트 등 글로벌 기술 대기업들도 AI 분야의 선두주자다. 그들은 다른 AI 개발자가 사용할 수 있는 하드웨어 및 소프트웨어 플랫폼을 제공하고, 자신의 제품을 활용하는 최종 사용자를 위한 새로운 AI 애플리케이션 및 서비스를 개발합니다.다른 회사들은 특정 애플리케이션을 위한 AI의 선구자입니다. 몇 가지 예를 나열하자면 OpenAI는 생성적 AI 모델뿐만 아니라 ChatGPT와 같이 해당 모델을 기반으로 구축된 AI 도구로 유명합니다. 모빌아이(Mobileye)는 이스라엘의 ADAS 및 자율주행 기술 개발업체로, 자율주행차의 도로 운행을 선도하고 있습니다.     10. AI의 미래는 무엇인가? AI가 "자기 인식"을 하거나 인간 지능을 능가하기 훨씬 전에, 일하는 방식부터 여행하는 방식, 노는 방식, 돌보는 방식까지 일상생활의 모든 측면에 도움이 되는 데 사용될 것입니다. 우리의 건강. AI 발전의 지표로 생각할 수 있는 두 가지 업계 지표가 있습니다.● 컴퓨팅 플랫폼: 처리 능력과 서버 하드웨어의 발전은 더욱 강력한 AI를 육성하는 데 도움이 될 것입니다. 따라서 하드웨어 제조업체가 더 많은 양의 데이터를 더 빠르게 계산할 수 있는 기능을 갖춘 새로운 컴퓨팅 제품을 출시할 때 AI 개발의 도약을 찾아보세요. 주목해야 할 좋은 기술 브랜드는 GIGABYTE Technology입니다! 첫째, 우리는 AI 개발을 가속화할 최신 하드웨어 기술 혁신을 갖춘 새로운 AI 서버를 지속적으로 출시하고 있기 때문입니다. 둘째, 최신 AI 관련 성공 사례와 심층 분석을 다루는 새로운 콘텐츠를 공식 웹사이트에 자주 게시하기 때문입니다.● 소프트웨어 개발: 새로운 컴퓨팅 하드웨어를 바탕으로 다양한 수직 시장에서 사용할 수 있는 새로운 AI 모델과 애플리케이션이 개발될 것입니다. 따라서 AI 소프트웨어의 혁신이 발표된 직후 새로운 AI 지원 서비스가 출시될 것으로 예상할 수 있습니다.

상세보기