PR CENTER

PR센터

홈>PR센터>보도자료

보도자료

[GIGABYTE] GIGAPOD가 원스톱 서비스를 제공하고 포괄적인 AI 혁명을 가속화하는 방법

2024.10.25

[GIGABYTE] GIGAPOD가 원스톱 서비스를 제공하고 포괄적인 AI 혁명을 가속화하는 방법

    현대 컴퓨팅 아키텍처의 과제 GPU 애플리케이션과 AI 개발의 초기에는 컴퓨팅 요구 사항이 비교적 낮고 상호 연결 기술이 아직 성숙하지 않았을 때 GPU 컴퓨팅은 주로 간단한 단일 서버 아키텍처에서 실행되었습니다. 그러나 학습 모델의 규모가 커지면서 다중 GPU 및 다중 노드 아키텍처의 중요성이 더욱 분명해졌으며, 특히 수천억 개의 매개변수가 있는 LLM을 학습하는 경우에 그러했습니다. GPU는 중요하지만 클러스터 컴퓨팅 상호 연결은 AI 학습 시간을 크게 단축할 수 있고 대규모 컴퓨팅 센터의 필수 구성 요소가 되었기 때문에 간과할 수 없습니다.고급 기업이 이상적인 AI 애플리케이션 솔루션을 구축할 때 일반적으로 초기 하드웨어 배포 중에 세 가지 주요 요구 사항에 직면합니다. 강력한 컴퓨팅 : GPU 노드는 동시에 컴퓨팅을 수행하여 AI 학습 및 시뮬레이션 중에 행렬 연산과 같은 병렬 처리 작업을 효율적으로 수행할 수 있습니다. 체계적인 하드웨어 배포 : 데이터 센터를 배포하려면 데이터 센터 전원, 바닥 레이아웃, 랙 구성, 열 관리와 같은 주요 측면에 대한 세심한 계획이 필요하며, 완전한 시스템 하드웨어 통합을 보장해야 합니다. 중단 없는 고속 네트워크 아키텍처 : 고속 네트워크 토폴로지는 높은 대역폭, 낮은 지연 시간의 네트워크 상호 연결을 제공하여 데이터 전송 속도를 높이고 시스템 성능을 향상시킵니다. 데이터 센터 구축에 대한 논의는 종종 GPU 수와 컴퓨팅 파워에 초점을 맞추지만, 잘 확립된 전원 공급 및 냉각 시스템이 없다면 서버실의 GPU는 잠재력을 실현할 수 없습니다. 또한 고속 네트워킹 아키텍처는 각 컴퓨팅 노드가 실시간으로 통신하여 기하급수적으로 증가하는 데이터를 처리할 수 있는 빠른 GPU 간 통신을 가능하게 하는 데 중요한 역할을 하므로 필수적입니다.현대 데이터 센터가 직면한 과제를 극복하기 위해 다음 섹션에서는 GIGAPOD가 오늘날 AI 데이터 센터를 구축하는 데 가장 적합한 솔루션인 이유를 자세히 설명합니다. 그림 1: GIGABYTE G593 시리즈 서버 GIGABYTE G593 시리즈 서버의 구성/사양은 다음과 같습니다. CPU : 듀얼 4/5세대 Intel ® Xeon ® 확장 가능 프로세서 또는AMD EPYC™ 9005/9004 시리즈 프로세서 GPU : NVIDIA HGX™ H100/H200 GPU 또는OAM 호환 가속기: AMD Instinct™ MI300 시리즈 및 Intel ® Gaudi ® 3 AI 메모리 : 24x DIMM(AMD EPYC) 또는 32x DIMM(Intel Xeon) 저장 장치 : 8x 2.5” Gen5 NVMe/SATA/SAS-4 핫스왑 드라이브 PCIe 슬롯 : 4x FHHL 및 8x 로우 프로파일 PCIe Gen5 x16 슬롯 전원 : 4+2 3000W 80 PLUS Titanium 중복 전원 공급 장치 G593 시리즈의 모든 서버 모델은 8-GPU 베이스보드와 듀얼 CPU를 지원합니다. 병렬 컴퓨팅 워크로드에서 서버는 주로 GPU에 의존하는 반면 복잡한 선형 처리 작업은 CPU가 처리합니다. 이러한 워크로드 분배는 AI 교육 애플리케이션에 이상적이며 사용자는 AMD 또는 Intel 중에서 선호하는 CPU 플랫폼을 선택할 수 있습니다.     확장 가능한 네트워크 아키텍처 AI 컴퓨팅은 종종 여러 분산 노드에서 대규모 데이터 세트를 처리하는 것을 포함합니다. 클러스터의 진정한 잠재력을 실현하기 위해 네트워크는 노드 간에 높은 데이터 전송 속도를 가능하게 하고, 동기화를 보장하고, 전체 시스템에서 데이터 일관성을 유지하는 데 중요한 역할을 합니다.대규모 언어 모델 학습 중에 데이터 집약적 워크로드는 각 서버 내의 8개 GPU에서 처리합니다. 이러한 GPU는 고속 상호 연결 기술을 사용하여 최대 900GB/s의 속도로 데이터를 교환하여 계산 효율성을 극대화할 수 있습니다. 클러스터의 다른 GPU 노드와의 데이터 교환은 일반적으로 400Gb/s NDR InfiniBand가 있는 NVIDIA Quantum-2 QM9700 스위치를 사용하는 여러 스위치의 네트워크 아키텍처를 통해 처리됩니다. 그림 2: Fat Tree 토폴로지를 사용하는 GIGAPOD의 클러스터   요약하자면, GIGAPOD 확장형 유닛은 32개의 GPU 서버와 12개의 스위치로 구성되며, 4개는 스파인 스위치로, 8개는 리프 스위치로 작동하며, 모두 256개의 NIC 카드를 통해 연결 및 관리되어 각 GPU를 조정합니다. 아래는 사양의 예입니다. NVIDIA MMA4Z00-NS 2x400Gb/s 트윈 포트 OSFP 트랜시버 가 있는 4x NVIDIA Quantum-2 QM9700 스파인 스위치(상단 레이어) NVIDIA MMA4Z00-NS 2x400Gb/s 트윈 포트 OSFP 트랜시버가 있는 8x NVIDIA Quantum-2 QM9700 Leaf 스위치(중간 계층) 각 서버에는 NVIDIA MMA4Z00-NS400 400Gb/s 단일 포트 OSFP 트랜시버가 있는 8개의 NVIDIA ConnectX ® -7 NIC(하단 계층)가 있습니다. NVIDIA MPO-12/APC 수동 파이버 케이블 그림 3: 액체 냉각이 있는 GIGAPOD: 4개의 GPU 컴퓨팅 랙         포괄적인 배포 프로세스 32개의 GPU 서버가 있는 단일 GIGAPOD 확장 가능 유닛을 완성하려면 20,000개 이상의 구성 요소가 필요하므로 각 단계가 원활하게 진행되도록 매우 체계적인 프로세스가 필요합니다. 컨설팅에서 실제 배포까지 GIGABYTE는 5단계 프로세스를 활용하여 GIGAPOD가 처음부터 끝까지 성공적으로 구축되고 제공되도록 합니다.     AI 기반 소프트웨어 및 하드웨어 통합 AI 기반 기업의 복잡한 요구 사항을 지원하기 위해 GIGAPOD는 GIGAPOD Management Platform(GPM)과 페어링되어 서버, 네트워킹, 스토리지, 전원 및 냉각을 포함하여 클러스터 전반의 장치에 대한 통합 유지 관리 인터페이스를 제공합니다. 이를 통해 기업은 클러스터의 모든 IT 하드웨어에 대한 대규모 모니터링, 유지 관리 및 관리를 수행할 수 있습니다. GPM은 NVIDIA AI Enterprise의 Base Command Manager(BCM) 및 Canonical의 Juju 플랫폼과의 통합을 지원하고 NVIDIA BCM SLURM 및 Canonical Charmed Kubernetes와 같은 작업 스케줄링 소프트웨어의 자동 배포 기능을 제공하여 사용자가 다양한 아키텍처의 GPU 서버를 관리할 수 있는 유연성을 제공합니다. GIGABYTE는 NVIDIA 및 Canonical과의 협업을 통해 고급 하드웨어와 강력한 소프트웨어 도구를 결합하여 엔드 투 엔드 확장 가능한 AI 인프라 관리 플랫폼을 제공합니다.클러스터를 개선하는 또 다른 방법은 MLOps 플랫폼인 Myelintek의 MLSteam을 사용하는 것입니다. MLSteam을 통해 AI R&D 팀은 개발 환경 구축에 추가로 시간과 비용을 들이지 않고도 전문 분야에 더 집중할 수 있습니다. 또한 데이터 주석, 모델 개발, 모델 제공 및 모델 재교육을 포함하여 교육 데이터 및 모델의 효과적인 관리를 가능하게 하여 AI 수명 주기 관리를 실현합니다. MLSteam은 또한 NVIDIA AI Enterprise의 모델 범주와 NIM을 지원하여 다양한 AI 연구 및 개발 요구 사항을 충족합니다. Retrieval-Augmented Generation(RAG)과 같은 고급 기능을 포함하여 고도로 맞춤화된 AI 모델 개발을 허용하는 반면, GPM 및 GIGABYTE의 고성능 GPU 서버는 다양한 가속기를 지원하여 AI R&D 팀의 소프트웨어 및 하드웨어 아키텍처 요구 사항을 충족합니다.

상세보기

[GIGABYTE] 데이터 센터를 AI에 대비시키는 방법? 2부: 클러스터 컴퓨팅

2024.09.11

[GIGABYTE] 데이터 센터를 AI에 대비시키는 방법? 2부: 클러스터 컴퓨팅

상세보기

[GIGABYTE] 데이터 센터를 AI에 대비시키는 방법? 1부: 고급 냉각

2024.08.08

[GIGABYTE] 데이터 센터를 AI에 대비시키는 방법? 1부: 고급 냉각

        직접 액체 냉각(DLC) 또는 직접 칩(D2C) 액체 냉각 냉각 루프를 통해 액체 냉각수를 서버로 파이프하고 냉각판을 통해 핵심 구성 요소의 열을 흡수하는 액체 냉각은 AI 프로세서의 요구 사항 덕분에 그 어느 때보다 빠르게 인기를 얻고 있다는 데 의심의 여지가 없습니다. 이미 언급했듯이 많은 AI 슈퍼컴퓨터는 액체 냉각을 염두에 두고 설계되었습니다. 주요  클라우드 서비스 공급업체(CSP) 를 포함한 데이터 센터 운영자 가 인프라를 업그레이드하여 액체 냉각을 채택함에 따라 이것이 업계의 새로운 표준이 되는 것은 시간 문제일 수 있습니다.     침지 냉각: 단상 및 2상 미리 계획하고 인프라를 미래에 대비하고자 하는 데이터 센터 운영자에게 침지 냉각은 액체 냉각에 이어 논리적으로 다음 단계입니다. 서버를 비전도성 냉각수 욕조에 직접 담그면 구성 요소의 열이 CDU(  단상 침지 냉각 의 경우 )를 통해 또는 탱크 내부의 냉각수의 자연 증발( 2상 침지 냉각 )을 통해 분산될 수 있습니다. 침지 냉각은 PUE를 1.02로 낮출 수 있으며, 이는 컴퓨팅에 사용되는 전력보다 2%만 더 많은 전력이 냉각에 필요하다는 것을 의미합니다. 그러나 진입 장벽은 물리적 인프라에서 안전 허가에 이르기까지 데이터 센터의 많은 측면이 침지 냉각을 위해 특별히 준비되어야 한다는 것입니다.     GIGABYTE의 독점적인 디자인과 RDHx를 통한 더 나은 공기 냉각 AI 워크로드에 대비하기 위해 액체 또는 침지 냉각을 고려하는 것이 절대적으로 권장되지만, 프로세스가 복잡할 수 있다는 것은 충분히 이해할 수 있으며, 따라서 공랭식 서버가 가까운 미래에도 여전히 주요 컴퓨팅 소스가 될 것입니다. 다행히도 GIGABYTE의 공랭식 솔루션은 최고의 성능과 최적의 냉각을 염두에 두고 설계되었습니다.

상세보기

[GIGABYTE] NYCU의 Advanced IC Lab이 대만 반도체 산업과 인재를 향상시키기 위해 업그레이드되었습니다.

2024.08.08

[GIGABYTE] NYCU의 Advanced IC Lab이 대만 반도체 산업과 인재를 향상시키기 위해 업그레이드되었습니다.

  National Yang Ming Chiao Tung University(NYCU)의 Advanced IC Lab은 대만의 반도체 산업과 인재 양성을 강화하기 위해 업그레이드되었습니다. GIGABYTE Technology와 파트너의 기여로 이 랩은 이제 최첨단 서버를 갖추고 있어 컴퓨팅 능력과 교육 성과를 모두 개선하고 있습니다. 새로운 인프라는 IC 설계의 효율적인 테스트를 가능하게 하고 고급 학습과 연구를 지원하여 반도체 산업의 미래 혁신을 주도할 인재를 육성합니다.   제조 기술의 발전으로 컴퓨팅 수요가 증가했고, 글로벌 공급망과 결합되면서 반도체 산업에 큰 영향을 미쳤습니다. 그 결과, 반도체 인재 양성은 전 세계적으로 중요한 목표가 되었습니다. 서버 R&D와 제조에 강점이 있는 GIGABYTE Technology는 대만 반도체 산업의 인재 양성에 강력한 추진력을 불어넣고자 산학 협력을 계속하고 있습니다.프로세스 노드의 발전으로 트랜지스터 밀도가 계속 증가하여 더 큰 성능 요구 사항을 충족하면서 한계를 뛰어넘으면서 IC 설계에서 획기적인 진전을 찾는 것이 반도체 산업에 매우 중요합니다. 그러나 인재 양성에는 상당한 시간 투자가 필요합니다. 따라서 고등 교육 기관은 반도체 산업에 진출하고자 하는 학생들이 빠르게 변화하는 기술 혁신을 따라잡을 수 있도록 돕는 것이 의무입니다.NYCU는  엄격한 교육과 연구를 통해 반도체 설계 분야에 대한 지식을 계속 심화하여 산업에 즉각적인 영향을 미칠 수 있는 반도체 인재를 양성하고 있습니다. "IC 설계 과정 부담은 상당히 높습니다. 해외 최고 대학의 유사한 과정보다 더 높아서 업계의 인재 수요에 빠르게 대응할 수 있습니다." National Yang Ming Chiao Tung University(NYCU) 부사장이자 NYCU 전자 연구소 교수인 Chen-Yi Lee 박사의 말입니다. Chen-Yi Lee 박사(오른쪽)가 칩 발전에 대해 논의하고 있습니다(출처: TechNews) GIGABYTE가 랩 업그레이드에 나섭니다. IC 설계 산업이 계속해서 혁신함에 따라 이 분야의 학생 수가 기하급수적으로 증가하고 있습니다. 그러나 자원에 대한 부담으로 인해 연구실은 부족하고 오래된 장비라는 문제에 직면해 있습니다. 인터뷰에서 이 박사는 새로운 서버 아키텍처가 NYCU의 IC 설계 분야에 미칠 수 있는 영향에 대해 설명했습니다. "서버 칩이 더욱 발전함에 따라 이러한 새로운 칩을 사용하여 새로운 IC 설계를 테스트하는 데 걸리는 시간을 단축할 수 있습니다. 이전에는 몇 시간이 걸리던 작업을 IT 하드웨어를 업그레이드하면 몇 분 만에 완료할 수 있습니다."라고 이 박사는 말했습니다. 우연히 GIGABYTE는 NYCU Advanced IC Design Lab에서 더 큰 컴퓨팅 하드웨어의 필요성에 대해 알게 되었습니다. 그래서 GIGABYTE는 AMD, Micron Technology, Nanya Technology, Phison Electronics, Samsung Electronics와 협력하여 랩을 위한 최첨단 서버를 완벽하게 조립했습니다.GIGABYTE는 두 대의 GIGABYTE  R282-Z91  범용 서버와 여섯 대의  H282-ZC1  고밀도 서버를 공급했으며, 각각 IC Design Lab의 클러스터에서 다른 역할을 했습니다. R282-Z91 서버는 스토리지에 사용되었고, H282-ZC1 서버는 서버당 네 개의 노드가 있는 컴퓨팅 플랫폼 역할을 하여 여러 사용자의 까다로운 컴퓨팅 요구를 충족했습니다.           업그레이드된 경험으로 학습이 향상됩니다. 여러 사용자를 위한 원활한 성능 서버 아키텍처를 계획할 때 향후 확장에 대한 필요성이 고려되었습니다. 이는 컴퓨팅 리소스를 넘어 데이터 전송에도 적용됩니다. 따라서 서버 아키텍처는 Phison의 고급 SSD 기술과 페어링된 두 대의 데이터 서버(R282-Z91)로 구성되어 500TB 이상의 저장 용량을 제공합니다. 그리고 이 설정은 20Gbps "본딩" 네트워크 스위치와 결합되어 노드 간 통신 대역폭을 효과적으로 증가시킵니다.무거운 컴퓨팅 성능은 6개의 H282-ZC1 고밀도 서버의 컴퓨팅 노드에서 제공됩니다. IC 설계 랩의 수석 관리자인 Lin-hung Lai는 "저희는 IC 설계를 하기 때문에 주요 컴퓨팅 초점은 CPU에서 이루어집니다."라고 말했습니다. "따라서 높은 멀티코어 CPU 노드는 설계 프로세스를 상당히 가속화할 수 있습니다." 그리고 GIGABYTE 서버의 각 CPU 노드에는 1TB의 DDR4 메모리가 장착되어 대규모 IC 설계의 증가하는 요구 사항을 처리할 수 있습니다. 시니어 랩 매니저 린-헝 라이는 우리에게 GIGABYTE 서버의 전용 서버 룸 공간을 소개해 주었는데, 이는 관리를 더욱 편리하게 만들어 주었습니다. (출처: TechNews)   서버를 설치한 후, 그 영향은 상당했고 업그레이드를 통해 더 다양한 사용이 가능해졌습니다. 수업 시간 외에도 학생들은 고품질 환경에서 연습하고 작업을 계속할 수 있어 학습 과정이 크게 향상되었습니다. 긴 대기 시간 없이 학생들은 더 복잡한 디자인 연습을 수행할 수 있었고 생성된 작업의 품질이 상당히 향상되었습니다.이러한 개선은 6개의 멀티노드 컴퓨팅 서버와 2개의 스토리지 서버의 CPU 선택 덕분에 가능했습니다. 컴퓨팅 밀도가 높은 H282-ZC1 서버는 TSMC의 7nm 공정을 사용하는 AMD "Zen 4" 코어를 기반으로 하는 AMD EPYC 7003 시리즈 CPU를 사용합니다. 이 CPU 시리즈는 최대 64개의 코어를 갖추고 있으며 PCIe 4.0을 사용하여 빠른 처리량을 제공하며, 빠르고 안정적인 연결을 위해 128GB/s의 대역폭에 도달할 수 있습니다. 이 6개의 고밀도 H282-ZC1 서버에는 2,304개의 CPU 코어(4,608개의 스레드)가 들어 있습니다. 빠른 고밀도 스토리지를 위해 R282-Z91이 선택되었으며, 두 서버는 총 372.48TB의 스토리지를 지원할 수 있습니다. 6개의 컴퓨팅 서버 중 하나의 하드웨어: 안건 모델 수량 섬기는 사람 기가바이트 H282-ZC1 1 CPU AMD 에픽 7763(64C/128T) 8 메모리 난야 32GB DDR4-3200 128 저장 파이슨 2.5인치 7.68TB SATA SSD 4 랜 CLN4832 Intel ® 82599ES 10Gb/s 2포트 4 두 개의 저장 서버 구성: 안건 모델 수량 섬기는 사람 기가바이트 R282-Z91 1 CPU AMD 에픽 7543(32C/64T) 2 메모리 난야 32GB DDR4-3200 8 저장 Phison 2.5인치 1.92T ESR1720 SATA SSD 1 Phison 2.5인치 7.68T ESR1710 SATA SSD 24 레이드 9364-8i 2G 1 랜 CLN4832 Intel ® 82599ES 10Gb/s 2포트 1       최첨단 하드웨어를 보유하는 것은 한 가지 일이지만, 그 리소스를 어떻게 활용할지도 마찬가지로 중요합니다. 많은 헤비 유저가 동시에 발생시키는 혼잡을 완화하기 위해 IC Design Lab은 리소스를 보다 효과적으로 활용할 필요가 있었기 때문에 자체 서버 트래픽 제어 시스템을 구현했습니다. 그렇게 함으로써 리소스를 더 잘 할당하고 조정할 수 있습니다. 결국 사용자 경험이 향상되었습니다. 217명의 온라인 사용자에게 IT 리소스가 할당됩니다. (출처: NYCU IC Lab) 부족한 하드웨어에서 놀라운 컴퓨팅 성능으로 IC 연구실의 수석 관리자인 린훙 라이는 "리소스를 더 잘 할당함으로써 단일 서버에 과부하가 걸리는 일이 크게 줄어들었고, 서버 상태를 모니터링할 수 있게 되었습니다."라고 말했습니다. "이 업그레이드 이전에는 데스크톱 PC가 학생들이 원격으로 연결하여 교대로 사용해야 하는 서버 역할을 했습니다. 그러나 각 컴퓨터의 메모리가 8GB에 불과하여 구식이 되었고 학습 과정이 매우 느렸습니다. 이는 APR(자동 배치 및 경로)이라는 EDA 프로세스를 사용하여 집적 회로를 만들 때 특히 문제가 되었습니다. 예를 들어, 이전에는 한 시간이 걸리던 작업을 이제 5분 만에 완료할 수 있습니다. 엄청난 개선입니다."가장 큰 변화는 학생들이 더 이상 개별 컴퓨터에 원격으로 연결하지 않고, 대신 고성능 컴퓨팅 환경에서 작동하는 서버에 연결한다는 것입니다. 또한 새로운 연구실 서버는 학기당 약 1,500개의 계정을 만들 수 있습니다. 피크 타임에는 최대 500명의 사용자가 동시에 온라인에서 작업하며, 이를 통해 IC 분야의 학습 과정이 크게 향상됩니다.     재능과 기여는 결코 사라지지 않습니다 인프라 문제를 해결하면 대학생의 학습 효율이 높아져 개인적으로 더 큰 속도로 발전할 수 있습니다. Advanced IC Design Lab에서 양성된 인재는 반도체 산업에 귀중한 자산으로 합류하여 이 산업을 발전시킬 준비가 되었습니다. Lee 박사는 이전 학생들이 남긴 학습 성과와 연구 데이터가 잘 보존되어 미래의 딥 러닝 교육을 위한 최상의 데이터로 사용될 수 있다고 밝혔습니다. 랩의 다음 단계는 AI 개발, Chip LLM 또는 Chip GPT 설계가 될 수 있으며, 이는 IC 설계 교육에서 새로운 이정표를 만들 것입니다.

상세보기

[GIGABYTE] GIGABYTE 서버를 통한 SupremeRAID™ BeeGFS™ 성능

2024.03.05

[GIGABYTE] GIGABYTE 서버를 통한 SupremeRAID™ BeeGFS™ 성능

      요약 Graid Technology 의 SupremeRAID™는   GPU 기반 가속을 사용하여 매우 높은 RAID 성능을 제공합니다. SupremeRAID™를 사용하면 ASIC 기반 하드웨어 RAID 및 CPU 기반 소프트웨어 RAID를 포함한 다른 RAID 제품에 내재된 성능 제한을 피할 수 있습니다. 이 문서에서는 SupremeRAID™가 고성능 컴퓨팅(HPC)용으로 개발 및 최적화된 병렬 파일 시스템인 BeeGFS 의 성능을 어떻게 향상시키는지 살펴봅니다  . StorageBench 및  IOzone을 사용하여 성능 측정을 수행했습니다 . StorageBench는 네트워크 성능과 관계없이 기본 파일 시스템 및 장치의 스트리밍 처리량을 측정하는 BeeGFS 벤치마크입니다. IOzone은 실제 작업 부하를 시뮬레이션하기 위해 광범위한 IO 작업을 테스트하고 전체 시스템에서 성능 병목 현상을 찾도록 설계되었습니다. 테스트는 2개의 스토리지 노드와 4개의 클라이언트 노드로 작동하는 GIGABYTE 서버를 사용하여 수행되었습니다. 조사 결과는 다음 페이지에 요약된 바와 같이 뛰어난 저장 공간과 BeeGFS 성능을 보여 주며, 이는 데이터 보호를 위해 SupremeRAID™를 선택하는 것이 성능을 극대화하는 매우 효과적인 방법임을 입증합니다. 1. 4개의 RAID 5 그룹으로 구성된 12개의 7GB/s SSD로 구성된 2세트. 2. 총 400G에 대한 4개의 100G 이더넷 링크.   원시 스토리지 성능을 측정하도록 설계된 BeeGFS StorageBench 벤치마크는 130.35GB/s의 인상적인 SupremeRAID™ 5 읽기 속도와 70GB/s의 쓰기 속도를 보여줍니다. 또한 StorageBench RAID 5 읽기 성능은 네트워크 병목 현상이 발생한 IOzone 벤치마크보다 읽기 및 쓰기 성능이 훨씬 높아 이론적인 성능 한계에 근접해 SupremeRAID™의 뛰어난 스토리지 성능을 보여줍니다. 네트워크 전송 오버헤드를 포함하는 실제 클라이언트 워크로드를 시뮬레이션하도록 설계된 IOzone 벤치마크도 마찬가지로 인상적입니다. 256개의 스레드로 읽기 및 쓰기 속도는 각각 45.10GB/s 및 42.97GB/s에 도달합니다. 중요한 것은 이 수치가 400G 네트워크의 이론적 한계(50GB/s)에 접근한다는 점입니다. 이는 SupremeRAID™가 4개의 100G 네트워크 링크로 구성된 400G 네트워크를 거의 완벽하게 활용할 수 있음을 의미합니다.     테스트 배경 하드웨어: 스토리지 노드(2개)• 서버: GIGABYTE  S183-SH0-AAV1  x 1• 프로세서:  Intel® Xeon® Platinum 8468H  48C 2.1GHz x 2• 메모리: Micron MTC20F2085S1RC48BA1 DDR5 32GB 4800MHz x 16• 네트워크 카드: ConnectX-5 Ex MCX556A-EDAT EDR x 1• SSD: SAMSUNG MZTL23T8HCLS-00A07 3.84TB x 16• RAID 컨트롤러: RAID 컨트롤러:  SupremeRAID™ SR-1010  x 1 하드웨어: 클라이언트 노드(4개)• 서버: GIGABYTE H242-Z10  x 4(4개- 노드 시스템)• 프로세서:  AMD EPYC 7663  56C x 2• 메모리: Micron HMA82GR7CJR8N-XN DDR4 16GB 3200MHz x 16• 네트워크 카드: ConnectX-5 Ex MCX556A-EDAT EDR x 1 소프트웨어: 스토리지 노드• 운영 체제: Red Hat Enterprise 8.8• 커널: 4.18.0-477.13.1.el8_8.x86_64• BeeGFS: 7.3.3• SupremeRAID™ 드라이버: 1.5.0• OFED: 5.8-2.0.3.0소프트웨어: 클라이언트 노드• 운영 체제: Red Hat Enterprise 8.8• 커널 : 4.18.0-477.13.1.el8_8.x86_64• BeeGFS: 7.3.3• SupremeRAID™ 드라이버: 1.5.0• OFED: 5.8-2.0.3.0• IOzone: 3-506.x86_64 소프트웨어: 클라이언트 노드 • 운영 체제: Red Hat Enterprise 8.8 • 커널: 4.18.0-477.13.1.el8_8.x86_64 • BeeGFS: 7.3.3 • SupremeRAID™ 드라이버: 1.5.0 • OFED: 5.8-2.0.3.0 • IO 영역: 3-506.x86_64     클러스터 아키텍처 네트워킹각 스토리지 노드에는 듀얼 포트 100G 네트워크 카드가 장착되어 있으며, 각 클라이언트 노드에는 단일 포트 100G 네트워크 카드가 장착되어 있습니다. 2개의 스토리지 노드와 4개의 클라이언트 노드는 모두 100G 스위치를 사용하여 상호 연결됩니다. 스토리지각 스토리지 노드에는 16개의 NVMe 드라이브가 장착되어 있으며, 그 중 8개는 CPU0에 있고 나머지 8개는 CPU1에 있습니다. CPU0에 위치한 단일 SupremeRAID™ SR-1010 RAID 컨트롤러는 16개의 NVMe 드라이브를 모두 관리합니다. 두 개의 MDS(메타데이터 서비스)가 설정되어 있으며 각각은 두 개의 드라이브로 구성된 RAID1 그룹에서 지원됩니다. 또한 각각 6개의 드라이브를 통합하는 2개의 RAID 5 그룹이 구성되었습니다. 각 RAID 5 그룹은 3개의 개별 OSS(객체 스토리지 서비스)를 위한 3개의 가상 드라이브를 생성했습니다. 전체적으로 클러스터는 4개의 MDS와 12개의 OSS로 구성됩니다.   프로필 테스트 BeeGFS StorageBench클러스터를 성공적으로 구성한 후 내장된 BeeGFS StorageBench 도구를 활용하여 NVMe 드라이브 및 RAID 컨트롤러의 성능을 측정했습니다. 평가 프로세스는 테스트 파일 구축을 목표로 하는 쓰기 테스트로 시작되었습니다. 이 절차에는 1M의 블록 크기와 64개의 스레드가 사용되었습니다. 또한 VFS 캐시의 잠재적인 영향을 우회하고 이후 스토리지 시스템의 실제 성능 기능을 공개하기 위해 --odirect 옵션을 통합했습니다.     쓰기 테스트가 완료되면 읽기 테스트 단계로 전환했습니다.     IOzone현실적인 워크로드에서 클러스터 성능을 평가하기 위해 IOzone을 활용하여 다양한 I/O 깊이의 4개 클라이언트 노드에서 I/O를 생성했습니다. 여기에는 각 스레드에 대해 1M 블록 크기와 16GB 파일 크기로 읽기 및 쓰기 워크로드를 모두 수행하는 것이 포함되었습니다. 또한 직접 I/O를 허용하도록 -I 옵션이 지정되었습니다.   테스트 결과 원시 스토리지 성능을 측정하도록 설계된 BeeGFS StorageBench 벤치마크는 RAID 5 보호 환경에서 인상적인 결과를 보여줍니다. 이 벤치마크 기간 동안 관찰된 읽기 및 쓰기 속도는 "BeeGFS StorageBench 결과 대 IOzone 결과"라는 제목의 차트에 설명된 대로 4개의 RAID 5 그룹에서 각각 130.35GB/s 및 70GB/s로 최고 기록되었습니다. StorageBench RAID 5 읽기 성능은 이론적 성능 한계에 근접하며 네트워크 병목 현상이 있는 IOzone 벤치마크보다 읽기 및 쓰기 성능이 훨씬 높아 SupremeRAID™의 뛰어난 스토리지 성능을 보여줍니다. 이와 대조적으로 IOzone 벤치마크는 네트워크 전송 오버헤드를 통합하여 실제 클라이언트 워크로드를 시뮬레이션합니다. 이 시나리오의 성능은 StorageBench 결과보다 낮지만 여전히 인상적입니다. 읽기 및 쓰기 속도는 256개의 스레드로 각각 45.10GB/s 및 42.97GB/s에 도달합니다. 중요한 것은 이 수치가 400G 네트워크(50GB/s)의 이론적인 한계에 접근한다는 점입니다. 이는 SupremeRAID™가 400G 네트워크(4 x 100G)를 거의 완벽하게 활용할 수 있음을 의미합니다. BeeGFS StorageBench 결과와 IOzone 결과 비교     다양한 스레드 수에 따른 IOzone 읽기/쓰기 성능 요약 요약하면 SupremeRAID™는 원시 스토리지 및 실제 작업 부하 시나리오에서 높은 성능을 제공합니다. BeeGFS StorageBench 결과에서 알 수 있듯이 SupremeRAID™는 RAID5 보호 하에서 매우 높은 스토리지 성능 수준을 달성합니다. 또한 IOzone 결과는 SupremeRAID™가 고속 네트워크 인프라를 최적으로 활용하면서 실제 클라이언트 작업 부하를 효율적으로 처리할 수 있음을 보여줍니다. GIGABYTE S183-SH0과 결합하면 밀도가 매우 높고 효율적인 병렬 파일 시스템 솔루션을 제공할 수 있습니다. 32개 베이가 모두 채워지면 1U당 최대 398.32TB를 제공할 수 있어 고성능 컴퓨팅(HPC) 및 인공 지능(AI) 애플리케이션에 이상적인 솔루션입니다. SupremeRAID™는 GIGABYTE S183-SH0과 함께 뛰어난 성능과 최대의 스토리지 효율성을 결합하여 HPC/AI 시나리오를 위한 최고의 선택으로 자리매김했습니다.     결론 Graid Technology의 SupremeRAID™는 GPU 기반 가속을 사용하여 매우 높은 RAID 성능을 제공합니다. SupremeRAID™를 사용하면 ASIC 기반 하드웨어 RAID 및 CPU 기반 소프트웨어 RAID를 포함한 다른 RAID 제품에 내재된 성능 제한을 피할 수 있습니다. SupremeRAID™ 소프트웨어 버전 1.5에서는 SSD 성능의 효율적인 활용이 향상되어 상당한 이점을 제공합니다. StorageBench 및 IOzone 벤치마크 테스트에서는 SupremeRAID™ 및 GIGABYTE 서버 사용 시 높은 스토리지 및 BeeGFS 성능을 확인했습니다. StorageBench 결과는 16개 SSD의 집합과 일치하는 스토리지 성능과 이론적 한계인 400G에 접근하는 BeeGFS 성능을 보여줍니다. BeeGFS에 SupremeRAID™ 및 GIGABYTE를 사용하면 다음과 같은 성능 이점을 얻을 수 있습니다. • 최대 130.35GB/s의 스토리지 성능.• 최대 45.10GB/s BeeGFS 성능.     배포 세부정보 모든 노드의 경우모든 서버에 RHEL 8.8을 설치합니다.네트워킹 설정1. 모든 서버에 OFED 패키지를 설치합니다.     2. 서버에서 InfiniBand 서브넷 관리자를 구성하고 시작합니다.     3. InfiniBand(IB) 상태를 확인합니다.     스토리지 노드 SupremeRAID™ 드라이버 설치 1. 사전 설치 프로그램과 설치 프로그램을 다운로드합니다.     2. 사전 설치 프로그램을 실행하여 필요한 패키지를 설치합니다.     3. 설치 프로그램을 실행하여 SupremeRAID™ 드라이버를 설치합니다.     4. SupremeRAID™ 서비스를 활성화하려면 라이센스 키를 적용하세요.     BeeGFS 패키지 설치 1. 모든 서버에 BeeGFS 저장소를 추가합니다.     2. BeeGFS 패키지를 설치합니다.     BeeGFS용 RAID 어레이 설정 1. SSD NUMA 위치를 확인합니다. 8개의 드라이브가 NUMA0에 있고 8개가 NUMA1에 있는지 확인하세요.     2. 16개의 NVMe 드라이브를 물리적 드라이브로 생성합니다.     3. 두 개의 RAID1 그룹과 두 개의 RAID5 그룹을 구성합니다.     4. 2개의 MDS 및 6개의 OSS용 가상 드라이브 생성     5. MDS(ext4) 및 OSS(xfs)에 적합한 파일 시스템으로 가상 드라이브를 포맷합니다.     BeeGFS 관리 서비스 설정     스토리지 노드에 여러 개의 BeeGFS MDS 및 OSS 설정1. 2개의 MDS 폴더와 6개의 OSS 폴더를 생성합니다.     2. beegfs-meta 구성 파일을 MDS 폴더에 복사합니다.     3. 각 MDS에 대해 beegfs-meta TCP/UDP 포트를 수정하여 포트 충돌을 방지합니다.     4. beegfs-storage 구성 파일을 OSS 폴더에 복사합니다.     5. 포트 충돌을 방지하기 위해 각 OSS에 대한 BeeGFS 스토리지 TCP/UDP 포트를 수정합니다.     6. 인터페이스 파일을 /etc/beegfs 폴더에 넣습니다.     7. BeeGFS 마운트 지점을 설정합니다.     8. MDS 및 OSS를 초기화합니다.     9. MDS 및 OSS 서비스를 시작합니다.     10. 방화벽의 포트를 엽니다.     11. 방화벽 서비스를 다시 로드합니다.     클라이언트 노드 BeeGFS 패키지 설치 1. 모든 서버에 BeeGFS 저장소를 추가합니다.     2. BeeGFS 클라이언트 패키지를 설치합니다.     BeeGFS 클라이언트 설정1. beegfs-client-autobuild.conf 파일에서 클라이언트 서버의 빌드 옵션을 구성합니다.     2. 클라이언트 커널 모듈을 다시 빌드합니다.     3. 클라이언트 서버에서 클라이언트 서비스를 초기화합니다.     4. BeeGFS 클라이언트 서비스를 다시 시작합니다.     BeeGFS 튜닝 객체 스토리지 서비스     메타데이터 서비스     고객     파일 시스템     참고자료 • BeeGFS 설치 가이드 • BeeGFS 다중 모드 구성 가이드 • BeeGFS 스토리지벤치 • IO존     소개       SupremeRAID™ SupremeRAID™ 차세대 GPU 가속 RAID는 기존 RAID 병목 현상을 제거하여 NVMe SSD의 성능과 가치를 최대한 활용합니다. PCIe Gen 3, 4, 5 서버를 위한 세계에서 가장 빠른 RAID 카드인 SupremeRAID™는 탁월한 성능을 제공하는 동시에 확장성을 높이고 유연성을 향상시키며 총 소유 비용(TCO)을 낮추도록 설계되었습니다. 단일 SupremeRAID™ 카드는 최대 28M IOPS 및 260GB/s의 성능을 발휘합니다. • 유연성 및 미래 대비 – 소프트웨어만을 사용하여 추가된 기능을 통해 비교할 수 없는 유연성을 제공합니다. • 세계 기록 성능 – 고성능 애플리케이션을 구동하는 속도를 제공합니다. • CPU 리소스 확보 - RAID 계산을 SupremeRAID™ GPU 카드로 오프로드합니다. • 플러그 앤 플레이 기능 – 케이블 레이아웃을 다시 구성할 필요 없이 열려 있는 PCle 슬롯에 추가할 수 있습니다. • 확장성이 뛰어난 애플리케이션 – 직접 연결된 NVMe SSD를 최대 32개까지 쉽게 관리할 수 있습니다. • 사용자 친화적인 관리 - 성능 향상을 위해 메모리 캐싱에 의존하지 않습니다.     BeeGFS 및 StorageBench ThinkParQ®에서 개발 및 설계한 BeeGFS 병렬 파일 시스템은 성능 지향 환경 및 작업 부하에 대해 고성능, 사용 편의성 및 간단한 관리 기능을 제공합니다. 일반적인 예로는 고성능 컴퓨팅, 인공 지능, 미디어 및 엔터테인먼트, 석유 및 가스, 생명과학 등이 있습니다. BeeGFS는 시중의 다른 병렬 파일 시스템보다 배포 및 관리가 더 쉽다고 여겨지는 경우가 많으며 StorageBench 스토리지 벤치마킹 도구가 포함되어 있습니다.     IO존 IOzone 종합 벤치마크는 읽기, 다시 읽기, 쓰기, 다시 쓰기 및 무작위 혼합을 포함한 다양한 작업을 사용하여 파일 시스템 성능을 테스트합니다. 테스트는 명령줄을 사용하여 지정된 옵션에 따라 수행되며 다양한 유형과 조합의 테스트 작업이 지원됩니다.

상세보기

[GIGABYTE] 체코 최대 검색 엔진은 GIGABYTE 솔루션을 기반으로 인프라를 구축합니다.

2023.12.29

[GIGABYTE] 체코 최대 검색 엔진은 GIGABYTE 솔루션을 기반으로 인프라를 구축합니다.

활기차고 성실한 세즈남 마스코트 크라스티 Seznam과 그들이 제공하는 서비스 Seznam.cz  는 체코 공화국의 인터넷 웹 포털이자 검색 엔진 리더입니다. Seznam의 비전은 모든 사용자를 위한 콘텐츠, 광고, 지식, 소셜 및 커뮤니케이션 플랫폼이 되는 것입니다. 주로 자사의 제품 혁신이 현재 및 미래의 경쟁업체를 상대로 성공하고 체코 온라인 시장에서 리더로서의 위치를 유지하는 데 도움이 될 것이라고 믿는 기술 회사입니다. 매월 최대 600만 명이 방문하는 Seznam의 메인 페이지에는 검색 엔진, 이메일 서비스, 뉴스, TV 프로그램, 일기예보 등이 포함되어 있습니다. 체코 공화국의 모든 인터넷 사용자 중 거의 절반이 Seznam.cz를 다음과 같이 설정했습니다. 그들의 홈페이지. 모든 제품과 서비스를 통해 Seznam은 체코 인터넷 사용자의 95%에 도달합니다.     체코 국경 밖의 세즈남 - 관광객을 위한 높은 가치의 전 세계 지도 서비스 Seznam이 2013년부터 개발해 온 서비스 중 하나는 Mapy.cz입니다. Google과 같은 외국 경쟁업체와 비교할 때 체코 애플리케이션은 커뮤니티 기반 지리 데이터베이스를 사용하여 고전적인 인쇄 지도처럼 보이는 지도를 만듭니다. 이 애플리케이션에서는 전 세계 개별 국가를 다운로드하여 오프라인으로 사용할 수 있습니다. 이 애플리케이션은 세계 지도를 볼 때뿐 아니라 경로를 계획하고 검색할 때에도 오프라인 모드에서 작동합니다. 모바일 애플리케이션에는 체코어 외에도 다양한 언어로의 현지화가 포함되어 있습니다. 국내외 자원봉사자 커뮤니티가 이들 언어로의 번역에 협력하고 있습니다. 최고 수준의 애플리케이션 활성 사용자 수는 400만 명을 넘습니다.체코 영토의 적용 범위는 자체 지도 데이터를 기반으로 하며, 나머지 세계는 프로젝트 OpenStreetMap 데이터에서 가져옵니다. 이 애플리케이션의 많은 기능에는 관광 및 교통 내비게이션과 자동차, 대중 교통, 자전거, 도보 및 기타 방법을 사용하는 경로 플래너가 포함됩니다. 이 애플리케이션에는 자체 설명이나 Wikipedia의 설명 및 사용자가 직접 업로드한 사진과 함께 많은 관심 지점이 포함되어 있습니다. 다른 글로벌 지도 앱과 달리 글로벌 관광 지도와 글로벌 겨울 지도가 특징으로, 겉모습은 고전적인 인쇄 지도와 비슷합니다. Mapy.cz로 여행 계획을 세우는 것은 쉽습니다. Seznam이 직면한 초기 하드웨어 문제 Seznam의 하드웨어 관리자인 Miroslav Bezdička는 이렇게 설명합니다. “우리 서비스의 수와 특성으로 인해 지속적인 작업을 담당하는 서버의 수가 점차 증가했습니다. 처음에는 잘 알려진 공급업체의 표준 랙 서버를 다양한 구성으로 사용했습니다. 약 10,000대의 서버 규모에 도달하고 가상화 및 컨테이너에 대한 수요가 엄청나게 증가하자 이 솔루션은 더 이상 적합하지 않았습니다.다양한 제조업체의 다양한 펌웨어의 복잡성과 다양한 제조업체의 서버 조정을 위한 단일 도구의 부족으로 인해 우리는 점차 기본적인 원격 관리 및 모니터링 기능만 사용하는 자체 도구를 개발하게 되었고, 이를 통해 보다 효율적으로 작업할 수 있었습니다. 우리의 모든 서버와 함께.“시간이 지남에 따라 우리는 서버 공급업체의 독점 도구로부터 독립했으며, 우리가 사용한 가상화와 함께 서버 구성 수를 줄일 수 있었습니다.“동시에 OCP(Open Compute Project)가 설립되었고, 이는 우리가 자체 하드웨어를 개발하도록 영감을 주었습니다. 우리의 경험을 통해 우리는 우리에게 필요한 기능이 무엇인지 정확히 알았고 서버를 시장에 판매하지 않을 것이기 때문에 이를 통해 우리의 정확한 요구 사항을 충족하는 최소한의 비용 효율적인 서버 설계를 개발할 수 있었습니다. 우리가 사용하는 대부분의 부품은 부품 제조업체에서 직접 공급되지만 가용성으로 인해 가능한 한 대체 소스 옵션을 선택하고 있습니다."     GIGABYTE 하드웨어가 제공하는 솔루션 Seznam은 현재 자체 서버 설계의 4세대를 실행하고 있습니다. 그리고 3세대부터 GIGABYTE의 마더보드를 사용해 왔습니다.Bezdička 씨는 다음과 같이 설명합니다. “GIGABYTE는 세계적으로 유명하고 입증된 컴퓨터 하드웨어 제조업체로서 고품질 제품을 제공합니다. 또한 개발 부서의 직접적인 탁월한 지원 덕분에 우리는 서버에서 사용하는 독점 인터페이스에 필요한 모든 정보를 보유하고 있습니다. 사용자 정의 수정 옵션이 있지만 가능한 한 표준 구성 요소를 사용하고 GIGABYTE와 협력하여 이러한 표준 구성 요소의 필수 기능 개발에 참여하려고 노력합니다. 우리가 표준 구성 요소를 사용한다는 사실은 유연하고 빠른 펌웨어 업데이트를 보장합니다.”현재 GIGABYTE 하드웨어를 기반으로 하는 5,000개 이상의 서버는 모든 Seznam 애플리케이션에 안정적인 고성능 플랫폼을 제공합니다.GIGABYTE의 EMEA 지역 수석 영업 이사인 Thomas Yen은 다음과 같이 말합니다. “Seznam을 파트너로 삼아 컴퓨팅 인프라를 구축할 수 있는 최신 서버 기술을 제공하게 된 것을 자랑스럽게 생각합니다. Seznam 인터넷 서비스의 성공은 GIGABYTE가 고객이 성공적으로 구축하고 개선할 수 있는 안정적인 고품질 서버 플랫폼을 제공한다는 것을 입증합니다. 또한 적절한 인력과 자원이 함께 모여 놀라운 제품을 만들 때 대규모 국제 기업과 경쟁하는 것이 여전히 가능하다는 것을 보여줍니다. 우리는 Seznam이 더욱 성장하고 성공할 수 있도록 돕기 위해 Seznam과의 관계를 지속하는 데 전념하고 있습니다.” 체코 인터넷 사용자는 GIGABYTE 서버로 구축된 Seznam의 데이터 센터를 사용합니다. GIGABYTE 하드웨어를 기반으로 한 Seznam 인프라 Seznam의 자체 맞춤형 설계 서버에 통합된 GIGABYTE 서버 마더보드는 검색 엔진 인프라를 완벽하게 실행할 수 있는 지속 가능성과 비용 효율적인 솔루션을 제공합니다. 맞춤형으로 설계된 서버는 AMD EPYC™ 플랫폼용 GIGABYTE 서버 마더보드를 기반으로 합니다.Seznam은 자체적으로 맞춤 설계된 서버 외에도 웹 포털 인프라에 GIGABYTE 서버를 통합했습니다. 이러한 서버는 일상적인 서비스를 간소화하고 사용자에게 최적화된 검색 경험을 제공하기 위해 다양한 사용 사례를 제공합니다.서버 마더보드와 서버는 AMD EPYC™ 7003 시리즈 프로세서에서 실행되며 탁월한 성능, 효율성 및 확장성을 제공합니다. AMD EPYC™ 7003 시리즈 프로세서는 메인스트림 데이터 센터의 성능과 효율성에 대한 표준을 설정했습니다. DDR4 및 PCIe Gen4 기술에 대한 광범위한 애플리케이션 검증을 수행하고 데이터 센터 문제에 대한 성능이 뛰어나고 비용 효율적인 솔루션을 찾는 고객은 AMD EPYC™ 7003 프로세서 기반 서버에서 엄청난 가치를 찾을 수 있습니다. 7nm 프로세스 노드를 기반으로 하는 AMD EPYC 7003 시리즈 프로세서는 최대 64개의 코어와 128개의 스레드를 지원합니다. 또한 최대 3200MHz의 소켓당 최대 4TB DDR4 메모리를 지원합니다. CPU와 드라이브 또는 가속기 간의 높은 처리량을 위해 단일 소켓 시스템에서 128개의 고속 PCIe 4.0 레인을 사용할 수 있고 듀얼 소켓 시스템에서 최대 160개의 레인을 사용할 수 있습니다.그러나 Seznam은 EPYC™ 7003 플랫폼이 지원하는 최대 구성을 사용하지 않습니다. 일반적인 구성은 512GB 메모리와 24코어(48스레드) 프로세서입니다.Seznam의 인프라는 GIGABYTE의 R 시리즈 및 G 시리즈(GPU) 서버의 견고한 기반 위에 구축되었으며, 각 서버는 시스템 내에서 서로 다른 목적을 수행하도록 세심하게 구성되었습니다.스토리지 노드:GIGABYTE  R271-Z00은  스토리지 목적을 위한 견고한 구성 요소입니다. 컴팩트한 단일 소켓 설계를 갖춘 이 서버는 AMD EPYC 7003 시리즈 프로세서에서 최대 64개의 CPU 코어를 수용합니다. 스토리지 측면에서는 8개의 2.5" SATA/SAS 및 2개의 2.5" PCIe 3.0 NVMe 핫스왑 가능 베이를 자랑하여 유연하고 확장 가능한 스토리지 솔루션을 보장합니다.GPU 노드:고도의 병렬 컴퓨팅 작업 부하를 위해 설계된 GIGABYTE  G242-Z10 2U 폼 팩터에 탑재된 GPU 최적화 서버입니다. 해당 아키텍처는 추가 로우 프로파일 슬롯 2개와 OCP 2.0 메자닌 카드 1개와 함께 GPU용 최대 4개의 PCIe Gen 3.0 x 16 확장 슬롯을 지원합니다. 이 구성은 상당한 병렬 처리 기능을 촉진할 뿐만 아니라 네트워킹 또는 스토리지 확장의 통합도 허용합니다. G242-Z10은 전면에 3.5인치 SATA 핫스왑 HDD 베이 4개와 후면에 2.5인치 NVMe/SATA SSD 베이 2개를 통합하여 효율성을 더욱 향상시킵니다. 이는 GPU 가속 컴퓨팅을 위해 미세 조정된 시스템으로, AMD EPYC 프로세서가 탑재된 듀얼 소켓 구성에서 단일 소켓으로 이동하여 간접비를 전략적으로 줄입니다.집약적인 GPU 컴퓨팅과 최신 PCIe 기술을 지원하도록 맞춤 제작된 GIGABYTE  G493-ZB0은  다재다능함이 돋보입니다. 이 서버는 8개의 이중 슬롯 PCIe 5.0 x16 GPU를 갖추고 있으며 다양한 네트워킹 옵션과 스토리지 구성을 제공합니다. Seznam은 G493-ZB0 및  NVIDIA H100 Tensor Core GPU 의 성능을 활용하여  언어 모델을 위한 강력한 독립형 슈퍼컴퓨터를 구축했습니다. 이 구성은 NVIDIA H100 GPU의 모든 기능을 최적화된 NVIDIA AI Enterprise 및 NVIDIA HPC 소프트웨어와 결합하여 과학 시뮬레이션, 데이터 분석 및 AI 애플리케이션에서 비교할 수 없는 성능을 제공합니다.전반적으로 Seznam이 GIGABYTE 서버 제품을 전략적으로 사용하는 것은 최첨단 기술에 대한 헌신을 강조하여 특정 작업에 맞게 각 구성 요소를 최적화하고 고급 컴퓨팅 요구 사항에 맞는 강력한 인프라를 종합적으로 형성하는 것입니다.     결론 혁신적인 하드웨어 솔루션을 제공함으로써 Seznam과 GIGABYTE는 지속적으로 협력하고 경쟁력을 유지하면서 최대 성능과 안정성에 도달할 수 있는 최적의 플랫폼을 만들고 있습니다. 개발 및 구현의 여러 단계를 통해 Seznam은 고객에게 시장을 선도하는 서비스를 제공할 수 있습니다.

상세보기

[GIGABYTE] 의료 및 의료 산업에서 AI를 활용하는 방법

2023.10.25

[GIGABYTE] 의료 및 의료 산업에서 AI를 활용하는 방법

의료 및 의학 분야에서 일하고 계시다면 잠시 시간을 내어 인공 지능이 이 분야에 어떻게 새로운 기회를 가져왔는지, 그리고 그로부터 이익을 얻기 위해 사용할 수 있는 도구에 대한 심층 분석을 살펴보세요. 이 기사는 GIGABYTE Technology가 진행 중인 "Power of AI" 시리즈의 일부입니다. 이 시리즈는 최신 AI 동향을 조사하고 업계 리더들이 어떻게 이러한 활기 넘치는 패러다임 전환의 선두에 설 수 있는지 자세히 설명합니다.     소개 인공지능(AI)은 전 세계적으로 의료를 크게 향상시킬 수 있는 잠재력을 가지고 있습니다. 주된 이유는 현재 환자들이 적시에 의료 서비스를 받지 못하는 경우가 많기 때문입니다. 질병의 증상이 잘못 진단될 수도 있고, 개인의 병력을 고려한 맞춤형 치료가 필요할 수도 있습니다. 의료진은 업무에 푹 빠져 환자에게 충분한 주의를 기울이지 못할 수도 있습니다. 환자가 자신의 건강을 어떻게 관리하는지도 '블랙박스'다. 의사는 상담 후 환자의 행동을 통제할 수 없기 때문이다. 선진국의 인구가 노령화됨에 따라 의료 서비스의 품질을 향상시키기 위해서는 기계 학습(ML) 및 컴퓨터 비전과 같은 AI 기반 기술을 사용하는 것이 필수적입니다.자료:인공 지능(AI)이란 무엇입니까?머신러닝(ML)이란 무엇입니까?컴퓨터 비전이란 무엇입니까?     AI는 의료 산업에서 다양한 방식으로 활용될 수 있습니다. 단순화를 위해 "진단"과 "치료"라는 포괄적인 용어를 사용하여 두 가지 범주로 구분할 수 있습니다.진단은 질병의 징후를 최대한 빨리 발견하는 것입니다. 이를 위해 의사에게는 올바른 결정을 내리는 데 도움이 되는 AI 도구와 환자에게 더 많은 시간을 할애할 수 있는 편의성이 필요합니다. 치료는 환자를 어떻게 치료하고 돌보는가에 관한 것입니다. AI로 강화된 맞춤형 의료는 질병을 보다 효과적으로 치료할 수 있으며, 원격 모니터링 및 원격 의료 서비스는 회복 과정에서 환자를 도울 수 있습니다. 마지막으로, 인공지능과 고성능 컴퓨팅(HPC)을 활용하면 신약 개발이 더 빠르고 안전하며 정확해질 수 있습니다.인류 역사상 AI가 우리의 웰빙을 돌볼 수 있는 시대가 다가오고 있는 만큼, 글로벌 헬스케어 AI 시장이 아직 초기 단계에 있다는 점을 이해하는 것이 중요합니다. 흥미롭고 새로운 혁신은 병원에 가는 것이 무엇을 의미하는지에 대한 우리의 견해를 바꿀 수 있지만, 우리의 안전과 개인 정보를 보호하기 위해 규칙과 규정도 마련되어야 합니다. 환자 데이터의 사용은 환자 개인 정보 보호에 대한 법률 및 제한 사항의 범위 내에서 이루어져야 한다는 것은 말할 필요도 없습니다. 혁신적인 서비스는 관련 당국이 정한 모든 법적, 전문적, 윤리적 규정 준수 표준을 준수해야 합니다.다음 섹션에서는 진단 및 치료를 위한 AI 애플리케이션을 살펴보겠습니다. 또한 이러한 세계적인 추세를 활용하는 데 도움이 될 수 있는 서버 하드웨어 및 소프트웨어 솔루션을 소개합니다.리소스:고성능 컴퓨팅(HPC)이란 무엇입니까?서버란 무엇입니까?   진단: 의료 분석은 더 빠르고 정확하게 질병의 징후를 감지합니다. 의료 분석은 질병의 일반적인 지표를 정확히 찾아내기 위해 과거 의료 데이터를 조사하는 것을 의미합니다. 이는 의사가 더 정확하고 효율적으로 질병을 진단하는 데 도움이 될 뿐만 아니라 오래된 의료 기록에서 가치를 얻는 좋은 방법이기도 합니다. 대부분의 데이터는 컴퓨터 단층촬영(CT) 스캔, 엑스레이, 초음파, 자기공명영상(MRI) 등 의료 영상을 통해 수집되므로 AI가 의료 영상과 함께 작동하도록 교육하면 의료 분석에 도움이 될 것입니다. 팔.일반적으로 AI는 수십억, 심지어는 수조에 달하는 매개변수를 포함하는 레이블이 지정된 의료 이미지의 거대한 라이브러리로 구성된 입력을 통해 훈련됩니다. 딥 러닝이라는 프로세스를 통해 AI 모델은 자신이 보고 있는 내용에 대해 "추측"한 다음 답변을 확인합니다. 시간이 지남에 따라 모델이 데이터 매개변수에 할당하는 "가중 점수"는 매우 정확해져서 매번 정확한 추측을 하게 됩니다. 즉, 의료영상에서 질병의 증상을 인식하는 방법을 학습한 것입니다.AI는 방대한 데이터 세트를 학습하고 많은 데이터가 그래픽 형식이기 때문에 의료 분석에 AI를 주입하려면 최신 그래픽 처리 장치(GPU)를 사용하여 병렬 컴퓨팅에 참여할 수 있는 서버가 권장됩니다. GIGABYTE Technology의  G-시리즈 GPU 서버를 사용  하면 광범위한 고급 GPU 제품에 액세스할 수 있습니다. 예를 들어, NVIDIA 인증  G593-SD0  GPU 서버는 HGX™ H100 8-GPU 컴퓨팅 모듈을 통합하여 시장에서 가장 강력한 AI 교육 플랫폼 중 하나를 만듭니다. GIGABYTE 서버는 OAM(OCP Accelerator Module) 사양을 따르는 최첨단 GPU 가속기인 AMD Instinct™ MI300X도 지원합니다. 또 다른 흥미로운 옵션은 AI 및 HPC 워크로드용으로 특별히 설계된 "CPU + GPU" 패키지입니다. 귀하의 옵션에는 AMD의 엔터프라이즈급 APU(가속 처리 장치) 제품인 AMD Instinct™ MI300A와 GIGABYTE의 H223-V10 및 H263-V11  H-  시리즈  고밀도  서버 에서 사용할 수 있는 NVIDIA Grace Hopper™ Superchip이 포함됩니다 .최첨단 하드웨어 외에도 GIGABYTE의 투자 회사인 MyelinTek Inc.는  NVIDIA MONAI와 같은 의료 AI 개발을 위한 인기 있는 딥 러닝 프레임워크를 통합한 "MLOps 플랫폼"인 MLSteam DNN 교육 시스템을 제공합니다. 라벨링 도구 및 이미지 프로그램과 같이 의사 및 기타 의료 서비스 개발자와 협력한 광범위한 경험을 바탕으로 MyelinTek이 엄선한 도구입니다. GIGABYTE 및 MyelinTek과 협력하면 기록적인 시간 내에 AI가 탑재된 토털 솔루션을 설정하는 데 도움이 될 수 있습니다.리소스:AI 훈련이란 무엇입니까?딥러닝이란 무엇인가요?병렬 컴퓨팅이란 무엇입니까?GPU(그래픽 처리 장치)란 무엇입니까?OCP란 무엇입니까?MLOps란 무엇인가요?   진단: AI 지원 상담으로 효율성이 향상되고 행정 업무가 가벼워집니다. AI 지원 상담의 이점은 의사가 사전 훈련된 모델을 사용하여 AI 추론에 참여하고 의료 이미지를 실시간으로 분석할 수 있다는 것입니다. 자연어 처리(NLP)의 발전으로 상담 중에 직원이 전자 건강 기록(EHR)을 생성하는 데 도움이 되므로 관리 부담이 줄어들 뿐만 아니라 데이터 검색 및 분석이 쉬워집니다. 그 결과 효율성이 향상되고 환자가 필요한 만큼 충분한 관심을 받을 수 있게 되었습니다.AI 워크로드의 크기에 따라 권장되는 서버 솔루션은 중앙 집중식 마이크로 데이터 센터 또는 서버 룸 내에 수용되는 특수 AI 추론 플랫폼일 수 있습니다. 또는 진료실에 배치할 수 있는 워크스테이션. 첫 번째 사용자 환경의 경우 GIGABYTE는   2U 섀시에 16개의 AMD Alveo™ V70 카드로 구성된 업계 최고의 초고밀도 구성을 특징으로 하는 G293-Z43 GPU 서버를 권장합니다. Alveo™ V70은 외부 메모리에 의존하지 않고 AI 모델의 레이어 간에 데이터를 전달할 수 있는 적응형 데이터 흐름 구조를 사용하는 AMD의 XDNA™ 아키텍처를 기반으로 합니다. 그 결과 성능과 에너지 효율성이 향상됩니다.두 번째 시나리오의 경우, GIGABYTE는   엔터프라이즈급 서버의 컴퓨팅 능력을 귀하의 책상에 직접 제공하는 포괄적인 W 시리즈 타워 서버/워크스테이션 솔루션 라인을 보유하고 있습니다. 예를 들어,  W771-Z00은  AMD Ryzen™ Threadripper™ PRO 프로세서에서 실행되며 최대 7개의 GPU 확장 카드 또는 4개의 이중 폭(DW) 가속기를 지원합니다. 이는 상담 중에 실시간 AI 추론을 가능하게 하는 데 충분한 처리 능력입니다. 추론 결과는 AI 모델을 재교육하고 추가로 최적화하는 데 사용될 수 있으므로 AI 지원 상담과 의료 분석 간의 선순환을 완성할 수 있습니다.GIGABYTE 및 MyelinTek의  MLSteam DNN 교육 시스템을  사용하여 NLP 및 LLM(대형 언어 모델) 애플리케이션을 지원할 수 있습니다. 환자 데이터는 민감하고 기밀로 유지되어야 하기 때문에 의료진은 공개적으로 이용 가능한 생성 AI 서비스를 사용하지 못할 수도 있습니다. 자체 AI 챗봇을 호스팅하려는 병원과 진료소를 위해 GIGABYTE와 MyelinTek은 AMD ROCm 또는 NVIDIA CUDA와 같이 고객이 선택한 GPU 가속 소프트웨어 플랫폼에 대해 BLOOM과 같은 인기 있는 오픈 소스 LLM을 최적화하는 데 도움을 줄 수 있습니다. 간단히 말해서, 우리는 귀하가 번거로움 없이 AI 지원 의료 서비스 제공을 시작할 수 있도록 귀하의 하드웨어와 소프트웨어가 잘 작동하는지 확인합니다.리소스:AI 추론이란 무엇입니까?자연어 처리(NLP)란 무엇입니까?데이터 센터란 무엇입니까?서버룸이란 무엇입니까?   진단: 요약 환자가 필요한 치료를 받기 전에 의사는 적시에 정확한 진단을 내려야 합니다. AI는 과거 의료 데이터(예: 의료 이미지)를 "연구"하고 더 빠르고 정확하게 질병의 증상을 인식하는 방법을 학습함으로써 의료 분석에 사용될 수 있습니다. 이러한 AI 모델은 상담 중에 프로세스를 더욱 효율적이고 효과적으로 만들기 위해 사용될 수 있습니다. 또한 AI는 행정 업무를 줄이고 즉시 EHR을 생성하여 의사가 환자와 더 많은 시간을 보낼 수 있도록 하는 동시에 향후 의료 분석에 사용할 수 있는 새로운 디지털 데이터를 생성할 수도 있습니다.  AI를 의료 분석에 주입하기 위해 GIGABYTE Technology는 시장에서 가장 진보된 처리 장치를 사용하여 AI 훈련을 가속화할 수 있는완전한  AI 서버 포트폴리오를 제공합니다. 예를 들어, GIGABYTE의 G593 시리즈는 AMD Instinct™ MI300X 또는 NVIDIA HGX™ H100 8-GPU 컴퓨팅 모듈을 지원할 수 있어 이러한 서버를 가장 강력한 AI 교육 플랫폼으로 만들 수 있습니다. GIGABYTE 서버는 또한 CPU와 GPU를 AI와 HPC에 최적화된 하나의 패키지로 결합한 새로운 종류의 칩인 최신 NVIDIA Grace Hopper™ Superchip 및 AMD Instinct™ MI300A APU를 지원합니다. 이러한 솔루션의 도움으로 의료 분석이 더욱 빠르고 스마트해집니다.AI 지원 상담을 위해 고객은 중앙 집중식 위치 또는 현장 계산을 위한 워크스테이션에서 AI 추론을 수행하려는 경우 소형, 고밀도 서버 솔루션을 채택할 수 있습니다. GIGABYTE의 G293-Z43은 2U 섀시에 16개의 AMD Alveo™ V70 카드를 탑재하여 업계 최고의 컴퓨팅 밀도를 제공하므로 첫 번째 시나리오에 완벽하게 적합합니다. 반면에, GIGABYTE의 W-시리즈 타워 서버/워크스테이션 제품을 배치하여 엔터프라이즈급 컴퓨팅을 병원에 직접 가져올 수 있습니다. 상담 중에 수집된 디지털 데이터는 AI 모델을 재교육하고 최적화하는 데 사용될 수 있습니다.GIGABYTE는 최상위 하드웨어 외에도 투자 회사인 MyelinTek Inc.를 통해 소프트웨어 솔루션도 제공합니다. GIGABYTE의 MLSteam DNN 교육 시스템은 NVIDIA MONAI와 같은 의료 AI 개발을 위한 인기 있는 딥 러닝 프레임워크와 권장 라벨링을 결합하므로 의료 분석을 향상시킬 수 있습니다. AI 훈련을 간소화하는 도구 및 이미지 프로그램. 또한 MLSteam DNN 교육 시스템은 NLP 및 LLM 애플리케이션에 사용할 수 있습니다. 이는 민감한 환자 데이터를 보호하면서 상담을 지원하기 위해 자체 AI를 호스팅하려는 의료 서비스 제공자에게 중요합니다.리소스:기술 가이드: 생성 AI를 활용하려면 "훈련" 및 "추론"에 대해 배워야 합니다.FAQ: 인공 지능에 대해 자주 묻는 10가지 질문     치료 : 개인별 상태에 따른 특화된 진료를 제공하는 맞춤의학 진단 후 논리적인 다음 단계는 치료입니다. 이 분야의 흥미로운 혁신 중 하나는 약을 처방할 때 환자의 유전자, 생활 방식, 생활 환경을 고려하는 맞춤 의학 또는 정밀 의학입니다. 이는 동일한 질병을 앓고 있는 모든 개인을 동질적인 개체처럼 치료하는 기존의 일률적인 방식과 다릅니다. 개인맞춤의료는 더욱 효과적이며 귀중한 의료자원의 낭비를 방지합니다.앞서 언급한 전자 건강 기록(EHR)의 편재성은 AI가 환자 정보를 디지털화하고 분석할 수 있도록 하는 데 큰 도움이 됩니다. 앞서 언급한 바와 같이 GIGABYTE는 EHR 작업을 위한 서버 솔루션과 MLOps 소프트웨어를 제공합니다. 이 제품은 AI가 데이터를 연구하고 개인의 병력을 기반으로 적절한 치료법을 추천하는 데 필요한 컴퓨팅 능력을 제공합니다.안전하고 안정적인 데이터 저장은 맞춤형 의료를 실현하는 데에도 중요합니다. 인간과 로봇 의사가 맞춤형 치료를 처방하기 위해서는 상세한 건강 기록을 유지해야 하기 때문에, 데이터베이스를 구축하고 즉각적인 접근이 가능하도록 특수 서버를 사용합니다.GIGABYTE Technology의  S-시리즈 스토리지 서버는  의료 및 의학 분야에 최신 데이터 스토리지 기술을 제공합니다. 예를 들어,  S183-SH0은  최신 PCIe Gen5 인터페이스를 활용하여 더 큰 스토리지 용량(최대 240테라바이트)을 제공하는 32개의 EDSFF E1.S NVMe 핫 스왑 가능 베이를 갖춘 올플래시 어레이(AFA) 스토리지를 제공합니다. 확장성과 기존 엔터프라이즈급 2.5인치 SSD의 장점을 유지합니다. GIGABYTE는 또한 Graid 기술과 협력하여 CPU 성능에 영향을 주지 않고 RAID의 보안 이점을 제공하는 소프트웨어 정의 솔루션인 SupremeRAID™를 제공합니다.GIGABYTE의  네트워크 서버는  컴퓨팅 서버 및 기타 외부 장치와 연결하여 스토리지 서버를 지원할 수 있습니다. 스토리지 서버 자체를 포함하여 다양한 범주의 서버가 이 역할을 수행할 수 있지만 GIGABYTE의  R-시리즈 랙 서버는  다용성과 유연성으로 인해 적극 권장됩니다. 이러한 서버는 서버 랙의 공간 할당을 최적화하고 데이터 센터의 기능을 향상시키는 방향으로 고객이 선택한 프로세서, 확장 카드 및 드라이브 베이를 수용할 수 있습니다.리소스:NVMe란 무엇입니까?PCIe란 무엇입니까?확장성이란 무엇입니까?RAID란 무엇입니까?중앙처리장치(CPU)란 무엇입니까?   치료: 환자 모니터링은 비침해적이고 중단 없는 원격 의료 서비스를 제공합니다. 개인의 사생활을 침해하거나 삶의 질에 영향을 주지 않고 수행할 수 있다면 의료진이 치료 후 환자의 회복 과정을 감시하는 것이 도움이 됩니다. 전통적으로 환자 모니터링은 병원 병동에서만 가능했으며 매우 노동 집약적이었습니다. 병원 밖에서 환자를 모니터링하는 것은 거의 불가능했습니다. AI가 그것을 바꾸었습니다.병원 병동의 병실 내에서는  개인 프라이버시를 침해할 수 있는 영상을 렌더링하거나 전송하지 않고 3D 깊이 감지 기술을 활용하여 환자의 위치와 동작을 감지하는 GIGABYTE의 스마트 추락 감지 시스템 과 같은 발명품을 통해 환자의 안전을 보호할 수 있습니다. 추락이 발생하면 시스템은 즉시 직원에게 알리고 AI를 사용하여 상황을 정확하게 평가하고 오경보를 방지합니다. 중환자실(ICU)에서는 훈련된 AI 모델이 환자의 심전도(ECG)를 모니터링하고 직원에게 위험을 경고할 수 있습니다. 이미 다룬 GIGABYTE의 진단용 AI 교육 및 추론 솔루션은 환자 모니터링을 위한 컴퓨팅 플랫폼 역할을 할 수 있습니다.병원 및 진료소 외부에서는 웨어러블 장치 및 기타 IoT 기기를 통해 원격 의료 서비스를 촉진할 수 있습니다. AI는 일반적인 문의에 응답하고 환자에게 인간 의사의 주의가 필요한지 여부를 평가할 수 있습니다. GIGABYTE의  E-시리즈 엣지 서버는  환자에게 더 가까이 컴퓨팅을 제공하고 원격 의료 범위를 확장하는 데 도움이 될 수 있습니다. 이 서버는 데이터 센터 외부 배포에 편리한 소형 섀시에서 높은 컴퓨팅 밀도, 높은 확장성 및 짧은 대기 시간 처리 기능을 제공합니다. 이는 방대한 양의 의료 데이터를 처리하고 적시에 신뢰할 수 있는 의료 서비스를 제공할 수 있는 5G 기반 다중 액세스 엣지 컴퓨팅(MEC) 네트워크의 구성 요소 역할을 할 수 있습니다. 대부분의 모바일 및 웨어러블 장치와 동일한 "컴퓨팅 언어"를 사용하는 GIGABYTE의  ARM 서버는 회복 중인 환자에게 의료 서비스를 제공하기 위해 엣지에서 의료 AI를 호스팅하기 위한 또 다른 최적의 플랫폼입니다.리소스:IoT란 무엇입니까?엣지 컴퓨팅이란 무엇입니까?5G란 무엇인가?다중 액세스 엣지 컴퓨팅이란 무엇입니까?   치료: AI를 활용해 정확성, 안전성, 속도 향상으로 신약 개발 혜택 의료 시설 외부에서도 연구자들은 최신 컴퓨팅 플랫폼을 사용하여 더 우수하고 안전한 치료법을 더 효율적으로 개발하고 있습니다. 그들의 초점은 코로나19와 같은 긴급한 글로벌 의료 위기일 수도 있고, 유전성 심장 질환과 같이 고령화 사회에 큰 타격을 주고 있는 장기적인 만성 질환일 수도 있습니다. AI와 HPC는 바이러스와 건강에 해로운 인간 세포의 분자 구조를 해부하는 데 사용될 수 있습니다. 또한 다양한 약물의 결과를 예측하고 약물 상호 작용을 시뮬레이션하여 의도하지 않은 부작용을 방지할 수 있습니다. 그 결과 우리는 우리 몸을 완전히 치유하고 건강을 보호하는 방식으로 우리에게 필요한 치료를 더 빨리 받을 수 있게 됩니다.대부분의 연구 기관에서는 과학자들이 완전한 도구 세트를 활용할 수 있도록 여러 서버를 사용하여 컴퓨팅 클러스터를 구축합니다. 앞서 언급한 모든 GIGABYTE 하드웨어 및 소프트웨어 솔루션에는 각자의 역할이 있습니다. 예를 들어  H 시리즈 고밀도 서버  와  G 시리즈 GPU 서버는  가속화된 계산에 탁월하므로 클러스터의 계산 노드 역할을 할 수 있습니다. S-시리즈 스토리지 서버는  원시 데이터와 귀중한 연구 결과를 안전하게 저장하는 데 적합합니다. R 시리즈 랙 서버는  컴퓨팅, 스토리지 또는 네트워킹 역할을 수행할 수 있습니다. 또한 동시에 작동하는 많은 수의 서버를 관리하는 데 중요한 "헤드" 또는 "제어" 노드 역할을 할 수도 있습니다.여기서는 GIGABYTE가 독점적인 다중 서버 원격 관리 소프트웨어 플랫폼인 GIGABYTE Server Management(GSM)를 무료로 제공한다는 점을 언급하기에 좋은 곳입니다. GSM은 인터넷을 통한 서버 클러스터 관리를 용이하게 합니다. 실시간 원격 제어를 위한 GSM 서버, 원격 모니터링 및 관리를 위한 GSM CLI, OS를 통한 데이터 검색을 위한 GSM Agent, 모바일 앱을 통한 원격 관리를 위한 GSM Mobile, 실시간 GSM 플러그인 등 다양한 시스템 관리 기능을 포함합니다. VMware vCenter를 통한 모니터링 및 관리.스페인 마드리드에 있는 Rey Juan Carlos University는 연구원들이 "Talos"로 지정한 GIGABYTE 컴퓨팅 클러스터의 만족스러운 소유자 중 하나입니다. 그들의 연구 분야는 세포 노화와 재프로그래밍입니다. 그들은 세포 및 분자 수준 모두에서 노화 과정을 연구하여 심장학 분야에서 새로운 돌파구를 마련하고 이를 통해 심장 질환에 대한 더 나은 치료법을 개발할 수 있기를 희망합니다. 대만의 Cheng Kung University(NCKU)는 4개의 GIGABYTE G482-Z50  GPU 서버 클러스터를 사용하여  코로나19를 유발하는 바이러스인 SARS-CoV-2가 다양한 약물에 어떻게 반응하는지 시뮬레이션했습니다. 이것이 백신 개발의 핵심이다. 본 연구에 대한 노력과 기타 성과를 바탕으로 NCKU 학생 팀은 2020년 APAC HPC-AI 대회에서 1위를 차지했습니다.자료:컴퓨팅 클러스터란 무엇입니까?노드란 무엇입니까?사례 연구: Rey Juan Carlos University에서 세포 노화 메커니즘 연구사례 연구: GIGABYTE는 NCKU 교육 상을 받은 슈퍼컴퓨팅 팀을 지원합니다.   치료: 요약 질병이 진단된 후, 의사는 환자가 회복될 수 있도록 치료를 제공해야 합니다. AI는 우리가 받는 의료를 다양한 방식으로 개선할 수 있습니다. 예를 들어 AI는 맞춤형 의료라는 이상을 현실로 바꿔 환자가 병력을 바탕으로 맞춤형 진료를 받을 수 있도록 해준다. AI로 강화된 환자 모니터링은 의료진이 일상 생활을 방해하지 않고 환자의 회복을 계속 감시하는 데 도움이 됩니다. AI는 또한 약물 개발을 더 빠르고 안전하며 더 정확하게 만들어 마침내 전 세계적으로 유행하는 전염병과 오래된 질병에 대한 솔루션을 갖게 될 수 있습니다.맞춤형 의료와 관련하여 환자 데이터를 연구하려면 최첨단 프로세서로 구동되는 서버가 필요할 뿐만 아니라 민감한 정보를 안전하게 저장하려면 대용량, 보안성이 뛰어난 스토리지 서버도 필수적입니다. GIGABYTE Technology는 포괄적인 AI 서버 제품군 외에도 데이터를 보호하기 위한 최첨단 스토리지 서버와 데이터 센터의 컴퓨팅 및 스토리지 계층을 보완하는 네트워크 서버를 제공합니다. GIGABYTE는 Graid Technology와의 제휴를 통해 SupremeRAID™를 제공하여 CPU 성능에 영향을 주지 않고 데이터 보안을 더욱 보장합니다.병원 병동 내에서는 GIGABYTE의 AI 서버를 통해 환자 모니터링이 가능하며, 스마트 낙상 감지 시스템과 같은 비침해적 모니터링 장치가 지원되어 개인 정보를 침해하지 않고 환자를 감시할 수 있습니다. 병원 외부에서는 원격 의료 네트워크 확장을 위해 GIGABYTE의 엣지 서버 및 ARM 서버를 권장합니다. 이들 제품은 환자 거주지와 더 가까운 곳에서 연산을 수행하고, 5G 네트워크를 통해 환자와 연결해 AI 상담과 스마트 모니터링이 가능하다.약물 개발을 전담하는 연구 센터는 일반적으로 AI 및 HPC를 활용한 노력을 강화하기 위해 컴퓨팅 클러스터를 구축합니다. GIGABYTE는 컴퓨팅을 위한 고밀도 서버 및 GPU 서버부터 데이터 저장을 위한 스토리지 서버, 컴퓨팅, 네트워킹, 스토리지 및 전체 클러스터 관리를 위한 랙 서버에 이르기까지 이러한 클러스터를 구성하는 데 필요한 모든 서버 솔루션을 제공합니다. GIGABYTE의 무료 독점 GIGABYTE 서버 관리(GSM) 소프트웨어를 사용하면 편리한 원격 클러스터 관리가 가능합니다.리소스:기술 가이드: 분산 컴퓨팅의 고급 형태인 클러스터 컴퓨팅기술 가이드: AI에 적합한 서버를 선택하는 방법은 무엇입니까? (1 부)     왜 기가바이트인가? 의료 및 의학에 인공 지능을 적용하려면 완전한 하드웨어 및 소프트웨어 패키지를 준비할 수 있는 기술 파트너와 협력해야 합니다. GIGABYTE 기술을 사용하면 다음과 같은 6가지 이점을 누릴 수 있습니다. ● 포괄적인 제품군 GIGABYTE는 의료 및 의학 분야의 진단과 치료를 위한 하드웨어와 소프트웨어를 제공합니다. 귀하가 대형 병원에서 근무하든 소규모 진료소에서 근무하든 GIGABYTE는 귀하의 AI 워크로드 및 작업 환경에 가장 적합한 서버 솔루션은 물론 AI 여정을 시작할 수 있는 소프트웨어 패키지를 추천할 수 있습니다. ● 최첨단 컴퓨팅 능력 GIGABYTE는 x86 CPU용 AMD 및 Intel, ARM CPU용 Ampere 및 NVIDIA는 물론 AMD, NVIDIA 및 기타 GPU 공급업체와 같은 업계 최고의 칩 공급업체와 긴밀한 관계를 유지하고 있습니다. 이는 최신 AI 기술로 의료 도구 상자를 완성하려는 경우 필수적인 GIGABYTE를 선택하면 최첨단 처리 능력을 의미합니다. ● 독특하고 독점적인 제품 디자인 GIGABYTE의 서버 제품은 안정적인 작동을 유지하고 전기 비용을 최소한으로 유지하면서 프로세서의 잠재력을 최대한 발휘할 수 있는 혁신적인 열 관리 기능을 갖추고 있습니다. 이는 지속 가능한 장기 배포에 이상적일 뿐만 아니라 AI 주입 의료 서비스를 항상 사용할 수 있도록 보장하는 데도 도움이 됩니다. ● 부가 가치 서비스 보완 앞서 언급했듯이 GIGABYTE는 클러스터 관리를 위해 GIGABYTE 서버 관리(GSM)를 무료로 제공합니다. 또한 모든 GIGABYTE 서버에는 GIGABYTE Management Console이 무료로 제공됩니다. 웹 기반 브라우저를 통해 서버 성능을 극대화할 수 있는 사용자 친화적인 원격 관리 도구입니다. 다른 제공업체에서는 이러한 기능에 대해 비용을 청구할 수 있지만 GIGABYTE는 그렇지 않습니다. ● 수십 년간 입증된 실적 GIGABYTE의 비전은 첨단 기술로 세상을 더 나은 곳으로 만드는 것입니다. GIGABYTE는 2000년부터 서버 솔루션 개발을 시작했습니다. 2023년에는 서버 사업부를 분사하여 Giga Computing Technology라는 전액 출자 자회사를 설립했습니다. 생태계에 대한 장기적인 투자는 GIGABYTE 서버가 최신 AI 제품과 호환되며 NVIDIA, Linux, Red Hat 등과 같은 업계 리더의 인증을 받았다는 것을 의미합니다. ● 믿을 수 있는 서비스 및 지원 GIGABYTE는 하드웨어와 소프트웨어에 대해 안정적인 서비스와 지원을 제공합니다. 온라인 eSupport 시스템을 통해 당사 서비스 팀과 연락할 수 있으며, 온라인 FAQ를 통해 현장에서 문제를 해결하는 데 도움을 받을 수 있습니다.     요약 헬스케어, 의료산업에 인공지능이 도입되면서 인류는 더 행복하고 건강한 삶을 살게 될 것입니다. 광범위하게 말하면, AI는 의료 분석을 발전시킬 수 있는 AI 훈련을 통해 진단을 지원할 수 있습니다. AI 추론을 통해 상담 시 의사결정에 도움을 줄 수 있을 뿐만 아니라 행정적 부담도 줄일 수 있습니다. AI는 환자의 개별 요구 사항에 따라 맞춤형, 맞춤형 약품을 처방하여 치료를 개선할 수 있습니다. 회복 과정에서 환자를 모니터링할 수 있으며 연구자가 더 새롭고 더 나은 치료법을 개발하는 데 도움을 줄 수 있습니다.AI 훈련과 추론이 진단의 핵심이기 때문에, 시장에서 가장 진보된 프로세서 중 일부를 지원할 수 있는 GIGABYTE Technology의 H-시리즈 고밀도 서버와 G-시리즈 GPU 서버는 AI를 통한 의료 및 의학 진단 지원에 적극 권장됩니다. . GIGABYTE의 W-시리즈 타워 서버/워크스테이션 제품은 데이터 센터급 컴퓨팅 능력을 진료실에 바로 가져올 수 있습니다. 소프트웨어와 관련하여 GIGABYTE의 MLSteam DNN 교육 시스템은 의료 AI 개발을 가속화할 수 있으며 환자 정보를 보호하면서 관리 작업을 처리하고 EHR을 생성하는 LLM 및 NLP 애플리케이션을 지원할 수 있습니다.위에서 언급한 슈퍼컴퓨팅 플랫폼은 치료 제공에도 이상적이지만 몇 가지 주의 사항이 있습니다. 개인화된 의료를 위해서는 GIGABYTE의 S-시리즈 스토리지 서버를 사용하여 민감한 의료 데이터를 저장하고 보호하는 것이 좋습니다. R 시리즈 랙 서버는 컴퓨팅 및 스토리지 서버를 지원하는 네트워크 서버의 역할을 수행할 수 있습니다. 또한 신약과 치료법을 개발하는 데 사용되는 컴퓨팅 클러스터의 헤드 또는 제어 노드 역할을 할 수도 있습니다. 24시간 환자 모니터링을 제공하기 위해 GIGABYTE의 스마트 낙상 감지 시스템과 같은 비침해적 감시는 개인 정보를 침해하지 않고 환자의 안전을 보장할 수 있습니다. GIGABYTE의 E-시리즈 엣지 서버 및 ARM 서버는 원격 의료를 위한 포괄적인 5G 지원 다중 액세스 엣지 컴퓨팅(MEC) 네트워크를 구축하는 데 최적입니다.AI의 힘은 우리의 웰빙을 더 잘 돌볼 수 있도록 의료 및 의료 산업에 혁명을 일으킬 수 있습니다.

상세보기

[GIGABYTE] AI에 적합한 서버를 선택하는 방법은 무엇입니까? 2부: 메모리, 스토리지 등

2023.10.04

[GIGABYTE] AI에 적합한 서버를 선택하는 방법은 무엇입니까? 2부: 메모리, 스토리지 등

기술 가이드 1부 에서는  AI 서버  에  적합한 중앙 처리 장치(CPU)  와  그래픽 처리 장치(GPU)를 선택하는 데 도움이 되는 몇 가지 유용한 팁을 살펴보았습니다   . 처리 능력이 가장 중요하지만 AI 컴퓨팅 플랫폼에는 이 두 가지 구성 요소보다 더 많은 것이 있습니다. 이 섹션에서는 메모리, 스토리지, 전원 공급 장치(PSU), 열 관리, 확장 슬롯 및 I/O 포트가 서버 성능에 어떤 영향을 미칠 수 있는지, 그리고 AI 작업에 적합한 장치를 선택하는 방법을 살펴봅니다. . 자세히 알아보기: 《AI 개발 및 응용을 위한 GIGABYTE AI 서버 소개   》《기술 가이드:  서버란 무엇입니까? 》   인공 지능을 기반으로 하는 도구와 서비스가 확산되면서 크고 작은 조직에서 "AI 서버" 조달이 우선 순위가 되었습니다. AI 서버 선택에 관한 GIGABYTE Technology의 기술 가이드 2부에서는 서버를 슈퍼컴퓨팅 강자로 변모시킬 수 있는 CPU 및 GPU 외에 6가지 다른 필수 구성 요소를 살펴봅니다.   AI 서버에 적합한 메모리를 선택하는 방법은 무엇입니까? RAM이라고도 하는 메모리는 서버에서 프로세서가 즉시 사용할 수 있도록 프로그램과 데이터를 저장하는 데 사용됩니다. 가장 강력한 AI 칩은 많은 양의 데이터를 매우 빠르게 계산할 수 있으므로 부적절한 메모리로 인해 성능이 저하될 수는 없습니다. 서버의 메모리는 항상 프로세서를 지원할 만큼 충분한 처리량과 용량을 가지고 있어야 합니다.현재 가장 발전된 유형의 메모리는 5세대 Double Data Rate 동기식 동적 랜덤 액세스 메모리인 DDR5 SDRAM입니다. 줄여서 DDR5라고 부르겠습니다. 이전 세대보다 더 높은 데이터 전송 속도, 더 높은 대역폭, 더 낮은 전압 요구 사항 및 더 많은 용량을 제공하므로 최고의 AI 서버에 선택되는 메모리 구성 요소입니다.분명히 하나의 RAM 스틱(더 정확하게는  DIMM 이라고 함))만으로는 충분하지 않습니다. AI 서버에 워크로드 요구 사항을 충족하기에 충분한 DIMM 슬롯이 있는지 확인하십시오. 예를 들어,  AI 훈련  및  추론을  위해 설계된  G 시리즈 GPU 서버인 GIGABYTE  의 G493-ZB3 에는 인상적인 48개의 DIMM 슬롯이 있습니다. DIMM 자체는 속도, 안정성 및 용량을 최적화하도록 설계될 수 있습니다. 예로는 RDIMM(등록된 DIMM) 및 LRDIMM(부하 감소 DIMM)과 같은 특정 DIMM 하위 집합이 있습니다. 마지막으로, 서버 프로세서에는 메모리 사용을 합리화하는 방법이 있을 수 있습니다. GIGABYTE의 강력한 AI 트레이닝 제품인  G593-SD0은 Intel® Xeon® CPU Max 시리즈 프로세서를 지원합니다. 이 프로세서는 고대역폭 메모리(HBM)를 통해 향상된 메모리 사용을 제공합니다. HPC  및 AI 워크로드. AMD GPU가 사용하는 XDNA™ 아키텍처는 외부 메모리에 의존하지 않고 데이터가 AI 모델의 계층을 통과할 수 있도록 하는 적응형 데이터 흐름 아키텍처를 자랑합니다.     AI 서버에 적합한 스토리지를 선택하는 방법은 무엇입니까? 메모리는 즉시 사용할 수 있도록 데이터를 저장하는 반면, 스토리지는 사용자가 삭제할 때까지 서버의 모든 데이터를 영구적으로 보관합니다. 고려해야 할 세 가지 기준은 속도(예: 데이터 전송 속도 및 대역폭), 저장 용량, 장치가 "현대 데이터  센터 의 세 번째 기둥 "(CPU 및 GPU에 이어)  인 DPU 와 호환되는지 여부입니다. .기억해야 할 약어가 많으니 계속 함께해주세요. 우선, 솔리드 스테이트 드라이브(SSD)가 하드 디스크 드라이브(HDD)보다 우수한 저장 장치로서 오랫동안 앞섰으므로 AI 서버에서 반드시 사용해야 한다는 것은 말할 필요도 없습니다. 스토리지 인터페이스에는 SATA, SAS, NVMe 의 세 가지 유형이 있습니다. . SATA는 가장 확립된 기술이며 처음에는 HDD와 함께 사용하도록 설계되었습니다. SAS는 SATA보다 빠르지만 SSD에서만 사용할 수 있는 NVMe가 챔피언입니다. NVMe는 PCIe 기술을 활용하여   읽기/쓰기 속도를 향상하고 저장 장치와 프로세서 간의 대역폭을 높이기 때문에 결과적으로 데이터 전송 속도가 빨라지고 대기 시간이 단축됩니다. 따라서 최신 Gen5 NVMe 인터페이스를 사용하는 SSD는 AI 서버의 스토리지 장치로 최고의 선택입니다.고려해야 할 다음 속성은 용량입니다. 대체로 말하면, NVMe SSD는 더 작은 M.2 폼 팩터 또는 보다 보편적인 엔터프라이즈급 2.5인치 폼 팩터를 채택합니다. GIGABYTE의 포괄적인 AI 서버 제품군은 더 큰 용량과 핫 스왑 가능 설계로 인해 주로 2.5인치 스토리지 베이를 활용하므로 서버 전원을 끄지 않고도 베이를 편리하게 제거하거나 교체할 수 있습니다. 많은 서버 모델에서는 추가 M.2 슬롯도 사용할 수 있습니다.마지막으로  H223-V10  H-시리즈 고밀도 서버 와 같은 GIGABYTE의 일부 AI 서버 NVIDIA Grace Hopper™ Superchip으로 구동되는 이 제품은 확장 슬롯에 NVIDIA BlueField-3 DPU를 추가하여 보조 2.5" Gen5 NVMe 핫스왑 가능 스토리지 베이를 지원할 수 있습니다. 이는 옵션을 비교할 때 고려해야 할 흥미로운 새 기능입니다. AI 서버의 스토리지 베이용. 메모리와 스토리지는 서로 다른 기능을 수행하지만 AI 슈퍼컴퓨팅 플랫폼에 적합한 것을 선택할 때 비슷한 경험 법칙이 있습니다. AI 서버에 적합한 전원 공급 장치를 선택하는 방법은 무엇입니까? 서버의 전원 공급 장치(PSU)는 서버 실행에 안전하고 안정적인 전원을 제공합니다. AI 워크로드는 컴퓨팅 집약적인 경향이 있으므로 탁월한 전력 효율성과 중복성을 제공하는 PSU 구성을 선택하는 것이 필수적입니다.PSU의 전력 효율성을 확인하는 가장 좋은 방법은 80 PLUS라는 인증 프로그램을 이용하는 것입니다. 이 프로그램은 에너지 효율성을 기준으로 PSU를 6가지 레벨로 구분하며, 80 PLUS Titanium이 가장 효율적입니다. 이 수준에서 변환효율(즉, 얼마나 많은 에너지 입력이 유용한 출력으로 변환되는지)은 간단히 말하면 90%에서 96% 사이입니다. 두 번째로 높은 수준은 80 PLUS Platinum으로, 변환 효율은 89%에서 94% 사이입니다. GIGABYTE의 AI 서버는 주로 80 PLUS Titanium 인증 PSU를 사용합니다.기억해야 할 또 다른 점은 중복성이 필수적이라는 것입니다. 하나 이상의 PSU가 다운되더라도 서버는 계속 작동해야 합니다. GIGABYTE의 AI 서버는 적절한 수의 예비 전원 공급 장치로 설계되었습니다. 일부 서버는 PSU의 절반이 오프라인이 되어도 정상 작동을 계속할 수 있습니다.     AI 서버에 적합한 열 관리를 선택하는 방법은 무엇입니까? 서버 내부의 모든 구성 요소가 많은 열을 발생시키는 것은 당연합니다. 전기 요금을 많이 내지 않고 서버에서 최고의 성능을 얻으려면 올바른 열 관리 또는 방열 도구를 선택하는 것이 중요합니다.서버를 시원하게 유지하는 전통적인 방법은 공기 냉각입니다. 즉, 서버에 팬이 설치되어 뜨거운 공기를 데이터 센터 통로로 펌핑합니다. GIGABYTE의 모든 AI 서버는 독점적인 공기 흐름 친화적인 하드웨어 설계를 채택합니다. 섀시의 공기 흐름 방향은 시뮬레이션 소프트웨어를 통해 평가되어 환기를 최적화했습니다. 고성능 팬과 방열판을 장착해 방열 성능을 더욱 강화했습니다. 자동 팬 속도 제어 프로그램은 섀시의 중요한 지점의 온도를 모니터링하고 그에 따라 해당 팬의 속도를 조정합니다. 팬 속도 프로필을 수동으로 조정하여 열 관리와 전력 효율성 간의 적절한 균형을 유지할 수도 있습니다. GIGABYTE의 G363-SR0과 같은 특정 AI 서버 NVIDIA HGX™ H100 4-GPU 모듈과 통합된 GPU 서버인 는  액체 냉각 도 지원합니다 . 이는 서버의 주요 구성 요소 주위를 감고 열을 흡수하는 냉각 루프를 통해 액체 냉각수를 펌핑하는 혁신적인 새로운 열 관리 방법입니다. 액체 냉각은 프로세서의 잠재력을 최대한 활용하는 동시에 데이터 센터의 전체  PUE를 향상시킬 수 있는 잠재력을 가지고 있습니다 .액체 냉각의 정점은  침수 냉각 으로, 비전도성 유전체 유체 욕조에 서버를 직접 담그는 방식입니다. GIGABYTE는 단상 및 2상 침수 냉각 솔루션을 모두 제공합니다  . 예를 들어  A1P0-EB0 는 표준 19인치 EIA 서버용으로 설계된 원스톱 침수형 냉각 솔루션이고,  A1O3-CC0 은 OCP 서버용  으로 설계되었습니다   .  GIGABYTE의 AI 서버는 전체 PUE를 더욱 향상시키면서 TDP를 최적화하는 이러한 고급 냉각 방법과 함께 작동하도록 수정될 수 있습니다  .자세히 알아보기:《GIGABYTE 전용  고급 냉각 솔루션 미니 사이트 방문 》《기술 가이드:  서버에 적합한 냉각 솔루션을 선택하는 방법은 무엇입니까? 》 다음은 AI 서버용 전원 공급 장치, 열 관리, 확장 슬롯 및 I/O 포트를 선택하는 방법에 대한 몇 가지 간단한 지침입니다. AI 서버에 적합한 확장 슬롯을 선택하는 방법은 무엇입니까? 확장  성 (필요할 때 컴퓨팅 도구 키트를 확장할 수 있는 여유 공간)이 중요하므로 AI 서버의 확장 슬롯에 주의를 기울이는 것을 잊어서는 안 됩니다. 잘못된 선택은 없지만 몇 가지 사항을 염두에 두는 것이 도움이 됩니다.먼저, PCIe Gen5 슬롯을 찾으십시오. 많을수록 더 좋습니다. PCIe Gen5의 대역폭은 128GB/s이고 데이터 전송 속도는 32GT/s입니다. 둘 다 이전 세대에 비해 100% 증가했습니다. 이 슬롯을 사용하면 데이터 전송, 데이터 압축, 데이터 저장, 데이터 보안 및 CPU에 대한 데이터 분석을 처리할 수 있는 추가 그래픽 카드,  RAID  카드는 물론 앞서 언급한 DPU도 추가하여 서버 성능을 더욱 향상시킬 수 있습니다. 버스 표준 외에도 섀시에 사용할 수 있는 물리적 공간도 있습니다. FHFL(전체 높이, 전체 길이) 및 HHHL(절반 높이, 절반 길이)과 같은 약어가 표시되며 이는 LP(로우 프로파일)와 동일합니다. 이러한 설명은 확장 슬롯이 작동하도록 설계된 카드의 크기를 나타냅니다. 더 작은 카드가 더 큰 카드용으로 설계된 슬롯에 들어갈 수 있지만 그 반대는 불가능하다는 점은 주목할 가치가 있습니다. 따라서 슬롯의 다양성과 달성하려는 컴퓨팅 밀도 중에서 선택해야 합니다. OCP 네트워킹 및 저장소 카드에 필요한 OCP 메자닌 슬롯은 이러한 추가 기능을 사용할 가능성이 있는 경우 AI 서버에서도 사용할 수 있어야 합니다.     AI 서버에 적합한 I/O 포트를 선택하는 방법은 무엇입니까? AI 서버에서 마지막으로 고려해야 할 사항은 스위치, 디스플레이 및 기타 서버와 같은 외부 장치에 연결하는 방법입니다. 언제나 그렇듯이, 기본 원칙은 가장 진보된 기술을 더 많이 확보하려고 노력하는 것입니다.  1Gb/s 또는 10Gb/s 전송 속도, USB 3.0 이상(예: USB 3.2)을 지원하는 LAN 포트를 목표로 하세요  .또한 서버에 MLAN이라고도 하는 전용 관리 포트가 있는지 확인할 수도 있습니다. 이는 서버의  BMC 에 대한 보안 액세스를 제공하므로 보다 편리한 서버 관리 방법을 원하는 경우 유용할 수 있습니다. 모든 것이 준비되면 AI 워크로드에 이상적으로 적합한 슈퍼컴퓨팅 플랫폼을 갖게 됩니다."AI에 적합한 서버를 선택하는 방법"에 관한 GIGABYTE 기술 가이드를 읽어주셔서 감사합니다. 2부: 메모리, 스토리지 등”. 이 기사가 도움이 되고 유익한 정보가 되었기를 바랍니다. 

상세보기

[GIGABYTE] 지리적 경계를 뛰어넘다! BIM 기술 혁신 센터

2023.10.04

[GIGABYTE] 지리적 경계를 뛰어넘다! BIM 기술 혁신 센터

GIGABYTE W771-Z00 GPU 워크스테이션 GIGABYTE의 "원격 교육 및 3D 디자인 협업" 솔루션은 NVIDIA Omniverse™를 핵심 프레임워크로 사용하고 GIGABYTE W771-Z00 GPU 워크스테이션을 가상 호스트로 사용합니다. 이 솔루션은 '대만 건축 및 건축 센터'에서 전시되어 건설 및 건축 엔지니어링 업계 내 실시간 원격 협업과 3D 협력을 시연합니다. 행정자치부 산하 건축건축연구소는 건축정보모델링(BIM) 기술을 홍보하고 향후 디지털 건설 애플리케이션 개발을 지원하기 위해 '건축디지털디스플레이교육센터'를 건립한다.  2024년 이전 개장 준비 및 계획을 담당하기 위해 대만 건축 건축 센터 (TABC) 를 임명했습니다  . 목표는 대만 최초의 건설 기업을 위한 BIM 기술 및 디지털 기술 전시 및 교육 센터를 만드는 것입니다. 전문 기술에 대한 산업계와 정부 간의 연결과 협력을 강화하기 위해 TABC는 TABC에서 솔루션을 전시하기 위해 GIGABYTE를 선택했습니다. GIGABYTE 솔루션은 “원격교육과 3D 디자인 협업” . NVIDIA Omniverse™를  핵심 프레임워크로, GIGABYTE  W771  -Z00  GPU 워크스테이션을 가상 워크스테이션으로 사용하는 이 솔루션은 울트라슬림 미니 PC인 GIGABYTE BRIX Extreme  GB-BEi7HS-1260  및  GB-BER7HS-5800을 씬 클라이언트 솔루션으로 사용합니다. 고성능 컴퓨팅과 유연한 배포를 제공합니다. 디자인, 교육, 건축, 건설 산업에 적합하며 실시간 원격 연결 및 3D 협업에 대한 요구를 지원합니다. TABC 애플리케이션 프로모션 부문 관리자 Ming-Hao Li(오른쪽에서 두 번째)가 Giga Computing의 비즈니스 개발 관리자인 Leo Wang(오른쪽에서 세 번째)에게 건축 디지털 디스플레이 및 교육 센터의 향후 계획을 설명하고 있습니다.   그러나 업계가 BIM 기술을 채택하도록 지원하는 과정에는 많은 과제가 있습니다. 과제에는 BIM을 위한 다양한 데이터 소스의 통합과 소프트웨어 도구의 호환성이 포함됩니다. 또한, 건설산업은 규제, 관리, 기술교육 등의 문제를 포함하여 실제 적용에 있어 여전히 많은 전통적 관행을 유지하고 있습니다. 이는 모두 BIM 기술을 촉진하기 위해 해결해야 할 과제입니다. Li 씨는 기술 수준을 예로 들어 건설 업계가 아직 프로젝트 공유를 위한 클라우드 기반 데이터 플랫폼인 CDE(Common Data Environment)와 통합하지 못했다고 설명했습니다. 서로 다른 전문 팀이 의사소통을 위해 서로 다른 소프트웨어의 파일을 변환하고 통합해야 하므로 협업 프로세스가 매우 복잡해졌습니다. 파일을 가져오거나 내보낼 때의 호환성 문제로 인해 프로젝트 완료 시간이 크게 늘어났습니다. 인재 교육 측면에서 BIM 기술은 건축가, 시공업체, 전기 엔지니어링 공급업체 간의 다자간 협업 및 설계 검토를 촉진할 수 있지만 기존 과정에서는 협업 프로세스를 구현하기 어렵고 참석자들은 구현에 대한 실무 경험을 얻을 수 없습니다. 다자간 협력의 이점. GIGABYTE W771-Z00 GPU 워크스테이션     가상 워크스테이션을 통해 다양한 지리적 위치에 있는 사용자는 초슬림 미니 PC인 BRIX Extreme을 인터페이스로 사용하여 W771-Z00 GPU 워크스테이션의 컴퓨팅 성능과 리소스에 액세스할 수 있습니다.   Giga Computing의 비즈니스 개발 관리자인 Leo Wang은 "소프트웨어와 하드웨어의 융합을 통해 3D 디자인 작업과 원격 협업에 대한 요구 사항을 충족합니다. 이 솔루션에는 최대 4개의 듀얼 슬롯 전문가를 수용할 수 있는 GIGABYTE W771-Z00 워크스테이션이 포함되어 있습니다." GPU는 물론 유연하고 확장 가능한 BRIX 미니 PC를 씬 클라이언트로, NVIDIA Omniverse 플랫폼을 통해 지리적 경계에 관계없이 실시간 다자간 협업을 촉진합니다." GIGABYTE는 NVIDIA 인증 서버 파트너이며 GIGABYTE의 하드웨어는 NVIDIA GPU 및 고속 네트워킹에 대해 검증되었습니다. TABC가 설정한 W771-Z00 워크스테이션에는 실시간 컴퓨팅의 핵심인 NVIDIA RTX™ A5000 전문 GPU 카드 2개가 포함되어 있습니다. 워크스테이션은 NVIDIA RTX™ 그래픽 카드 A2000, A4000, A4500도 지원합니다. "원격 교육 및 3D 디자인 협업"을 위한 건축 디지털 디스플레이 및 교육 센터 전시 공간 NVIDIA Omniverse는 소프트웨어 간 파일 협업을 촉진하고 작업 효율성을 높입니다. 전체 프로젝트 수명주기에서 BIM의 핵심 개념은 모든 관련 당사자의 설계, 시공 및 운영을 통합하고 조정하는 것입니다. 이러한 당사자에는 건축가, 엔지니어, 계약자, 공급업체 및 소유자가 포함됩니다. 공유된 공통 디지털 모델을 통해 전문 팀은 실시간으로 협력하고 설계에 대해 더 잘 이해할 수 있습니다. NVIDIA Omniverse와 GIGABYTE의 원격 솔루션은 BIM과의 협업을 크게 향상시키고 탁월한 시각화 효과를 제공합니다. Li 씨는 "NVIDIA Omniverse는 전문가가 사용하는 다양한 소프트웨어 간의 통신을 촉진하는 가상 협업을 위한 확장 가능한 개방형 플랫폼입니다. 예를 들어, 다양한 전문 팀이 플랫폼에서 실시간 4D 건설 시뮬레이션에 참여하고 건설 현장의 기계 작동 및 이동에 대한 배치 및 제한 사항에 대해 배울 수 있습니다. 따라서 건설 현장의 안전성을 높일 수 있습니다. 또한 사용자는 가상 환경에서 조정 및 수정을 통해 문제를 해결하고 조정 완료 후 현장에서 공사를 진행할 수 있습니다.   W771-Z00 GPU 워크스테이션은 원격 협업 및 실시간 컴퓨팅에 대한 수요를 충족합니다. 가상 데스크톱 소프트웨어 VMware Horizon에 대한 라이선스 문제, 향후 하드웨어 확장을 위한 유연성 설계, 네트워크 설계 문제 등을 포함하여 건축 디지털 디스플레이 및 교육 센터에 "원격 교육 및 3D 디자인 협업" 전시 공간을 설정하는 과정에서 어려움이 있었습니다. 다양한 지역에 걸쳐 환경을 설정하고 시스템 설정 및 교육에 적합한 소프트웨어 및 하드웨어 통합 회사를 찾는 것입니다. Leo Wang은 "설정 과정에서 가장 어려웠던 부분은 소프트웨어와 하드웨어 제공업체 간의 통신 비용과 시스템 유지 관리 기간의 책임 분담이었습니다. 다행히 GIGABYTE와 Gemhorn의 협력은 포괄적이고 상호 보완적입니다. 불확실성과 장애물을 줄입니다."가상 환경을 구축하려면 광범위한 리소스와 컴퓨팅 성능이 필요합니다. Gemhorn의 CTO인 Eric Chang은 GIGABYTE W771-Z00 워크스테이션의 성능에 만족했습니다. "워크스테이션은 뛰어난 확장성과 강력한 성능을 제공합니다. 단일 워크스테이션으로 BIM 기술 및 개발 환경에 대한 요구 사항을 충족할 수 있습니다. 또한 실제 설정 프로세스가 매우 원활했고 소프트웨어나 하드웨어 호환성 문제도 없었습니다." 실제 전시장에서 작동하는 워크스테이션은 같은 전시장 내 숨겨진 서버룸에 배치된다. 그래서 전시장에서는 기계음이 거의 감지되지 않습니다. 방문객은 조용하고 편안한 환경에서 가상환경이 제공하는 성능과 편리함을 완벽하게 경험할 수 있습니다.     VDI 및 GPU 아키텍처로 3D 실시간 협업 워크플로우 생성 많은 유명 해외 건축 및 조경 계획 회사에서는 VDI 아키텍처와 NVIDIA Omniverse가 포함된 향상된 GPU 컴퓨팅 시스템을 사용하여 다양한 프로젝트에서 실시간 협업으로 하이브리드 워크플로우를 촉진했습니다. 예를 들어 Browning Day, CannonDesign, Multistudio 등 미국 기업에서는 하이브리드 작업 프로세스를 사용하여 다양한 지역의 디자이너와 고객 간의 효과적인 커뮤니케이션을 촉진하고 3D 렌더링 및 정보 보안 관리를 크게 향상시킵니다. Wang 씨는 동일한 솔루션을 채택하려는 기업이 "완전한 하이브리드 배포" 개념을 기반으로 계획을 진행할 수 있다고 제안했습니다. 그는 말했다, GIGABYTE는 전문 워크스테이션부터 다양한 유형의 서버 설계 및 데이터 센터 구축에 이르기까지 다양한 프런트 엔드 리소스의 요구 사항을 충족하는 제품을 출시했습니다. 또한 기존 환경과 향후 확장을 위해 서버룸과 엔드포인트에서 유연한 확장과 최적의 배포를 보장하기 위해 공냉식 및 수냉식 솔루션을 모두 제공합니다." GIGABYTE는 전문 워크스테이션부터 다양한 유형의 서버 설계 및 데이터 센터 구축에 이르기까지 다양한 프런트 엔드 리소스의 요구 사항을 충족하는 제품을 출시했습니다. 또한 기존 환경과 향후 확장을 위해 서버룸과 엔드포인트에서 유연한 확장과 최적의 배포를 보장하기 위해 공냉식 및 수냉식 솔루션을 모두 제공합니다."요약하면, "원격 교육 및 3D 디자인 협업" 솔루션에는 자원 할당과 원격 작업이라는 두 가지 핵심 개념이 포함됩니다. 이 솔루션은 학교는 물론 다양한 지역의 사무실, 작업장, 연구소 등 많은 사람 간의 프로젝트 커뮤니케이션과 협업이 필요한 조직에 매우 적합합니다.

상세보기

[GIGABYTE] AI에 적합한 서버를 선택하는 방법은 무엇입니까? 1부: CPU 및 GPU

2023.09.25

[GIGABYTE] AI에 적합한 서버를 선택하는 방법은 무엇입니까? 1부: CPU 및 GPU

생성적 AI와 기타 인공 지능의 실용적인 응용이 등장하면서 "AI 서버"의 조달은 자동차부터 의료까지 다양한 산업, 학계 및 공공 기관 모두에서 우선 순위가 되었습니다. GIGABYTE Technology의 최신 기술 가이드에서는 가장 중요한 두 가지 구성 요소인 CPU와 GPU부터 시작하여 AI 서버의 8가지 주요 구성 요소를 단계별로 안내합니다. 올바른 프로세서를 선택하면 슈퍼컴퓨팅 플랫폼을 활성화하고 AI 관련 컴퓨팅 워크로드를 가속화할 수 있습니다.     최첨단 기술의 역동적인 흐름을 잘 알고 있는 독자라면 IT  믹스 에 "AI 서버"를 도입하는  것이 공공 부문이든 민간 부문이든 관계없이 광범위한 조직의 우선순위가 되었음을 관찰했을 것입니다. 학술, 연구, 제조 또는 서비스에 중점을 두고 있는지 여부. 인공 지능이  모든 분야에서 "힘 승수"임이 입증된 것은 놀라운 일이 아닙니다 . 몇 가지 예를 통해 설명하자면 생성적 AI는 마케팅, 기록 유지, 고객 관계에 도움이 될 수 있으며,  컴퓨터 비전 과 같은 다른 AI 발명품도 도움이 될 수 있습니다. 유통 센터나 고속도로 요금소와 같은 다양한 시설의 생산성과 효율성을 향상시킬 수 있습니다. 대부분의 기업과 기관의 경우 더 이상 AI 서버를 구매해야 하는지의 문제가 아니라, 기대에 부응할 수 있는지 확인하기 위해 '어느 서버'를 구매해야 하는지의 문제입니다. AI 및 고성능 컴퓨팅(HPC)분야의 업계 선두주자인 GIGABYTE Technology  서버 솔루션에서는 적합한 AI 서버를 선택하는 단계를 안내하기 위해 이 기술 가이드를 구성했습니다. 두 부분으로 구성된 이 기사 중 1부에서는 AI 서버의 핵심인 두 가지 프로세서 제품인 CPU와 GPU에 중점을 둘 것입니다. 귀하의 특정 요구 사항에 맞는 서버 프로세서가 무엇인지, 귀하의 도구 키트에 강력한 슈퍼컴퓨팅 AI 플랫폼을 추가하는 현명한 결정을 내릴 수 있는 방법에 대해 조언해 드립니다.자세히 알아보기: 《  인공 지능 개발 및 응용을 위한 GIGABYTE AI 서버소개  》 《 GIGABYTE의 HPC 서버 에 대한 추가 정보  》     AI 서버에 적합한 CPU를 선택하는 방법은 무엇입니까? 서버에 관한 모든 논문이 그러하듯이 우리의 분석은   모든 컴퓨터의 심장이자 영혼인 중앙 처리 장치(CPU) 에서 시작됩니다. CPU는 사용자로부터 명령을 수신하고 원하는 결과를 제공하는 "명령 주기"를 완료하는 주요 "계산기"입니다. 따라서 AI 서버를 그토록 강력하게 만드는 가장 큰 부분은 그 중심에 있는 CPU입니다.현재 제공되는 제품에 익숙한 분들은 AMD와 Intel CPU를 하나씩 비교할 수 있을 것으로 예상할 수 있지만 그보다 더 복잡합니다. 사실, 이 두 업계 리더는 Intel의 4세대 Intel® Xeon® CPU 라인과 AMD의 AMD EPYC™ 9004 CPU 라인이 CISC 의 정점을 대표하며 CPU 비즈니스의 최전선에 서 있습니다. 기반 x86 프로세서. 성숙하고 검증된 에코시스템과 결합된 탁월한 성능을 찾고 있다면 이러한 칩 제조업체의 최고 제품 중 하나를 선택하면 문제가 없을 것입니다. 또는 예산이 문제라면 Intel® Xeon® 및 AMD EPYC™ CPU의 이전 버전을 고려해 볼 수 있습니다. AMD의 Ryzen™ 시리즈는 더 적은 수의 코어  와 더 제한된  멀티스레딩 기능 으로 AI 워크로드를 처리할 수 있는 경우 좋은 입문용 선택이기도 합니다   .더 알아보기: 《 AMD CPU로 구동되는 GIGABYTE 서버 에 대한 추가 정보  》 《 Intel CPU로 구동되는 GIGABYTE 서버에대한 추가 정보  》그러나 끊임없이 확장되는 AI 환경에서는 AMD와 Intel 외에 다른 선택이 있습니다. RISC 기반 CPU는 슈퍼컴퓨팅 분야에서 강력한 경쟁자가 되었습니다. RISC 프로세서가 채택한 보다 단순화된 명령 세트 아키텍처(ISA)는 더 많은 코어를 포함하면서 전력 소비가 적다는 것을 의미하므로 x86 프로세서와 동등한 컴퓨팅 능력을 보여줄 수 있습니다. 거의 모든 모바일 및 엣지 장치 (읽기: 스마트폰)가 RISC 칩에서 실행된다는 사실은   RISC 기반 CPU가  "클라우드 네이티브" 라는 추가적인 이점을 가지고 있음을 의미합니다.즉, 현장의 장치에서 수집한 데이터를 변환하기 위해 컴파일러가 필요하지 않습니다. 따라서 AI 워크로드에 모바일 및 에지 장치에서 제공되는 데이터가 포함된 경우 RISC 제품을 고려해 볼 수 있습니다.RISC 기반 CPU 중 가장 유명한 라인 중 하나가 ARM입니다. GIGABYTE는 Ampere가 구축한 CPU로 구동되는 광범위한 ARM 서버를 보유하고 있습니다. 가장 발전된 Ampere® CPU는 단일 프로세서에 약 200개의 코어를 포함하는 동시에 동급 최고의 와트 대비 성능 비율을 제공하여 TCO를 줄이는 데 큰 도움이 됩니다. ARM 라인업에 추가된 또 다른 흥미로운 새 기능은 NVIDIA Grace™ CPU 슈퍼칩입니다. 이 슈퍼칩은 ARM 코어와 900GB/s NVLink-C2C 인터커넥트, 오류 정정 코드(ECC) 메모리를 갖춘 세계 최초의 LPDDR5X 등 NVIDIA 특허 기능을 결합합니다. NVIDIA의 AI 소프트웨어 제품군을 자주 사용하고 해당 CPU 하드웨어를 채택하고 싶다면 GIGABYTE의  H263-V60  고밀도 서버가 AI 슈퍼컴퓨팅 플랫폼입니다.자세히 알아보기:《에 대한 추가 정보 GIGABYTE의 ARM 서버》 《 GIGABYTE의 고밀도 서버에 대한 추가 정보  》 이 시점에서는 서버에 CPU 소켓을 1개 또는 2개 원하는지 결정하는 일만 남았습니다. 2개의 CPU 소켓으로 구성된 고밀도 구성은 일반적으로  더 높은 전력 소비와 더 까다로운 열 관리 비용으로 더 나은 성능과 가용성을 제공합니다. 이것이 문제인 경우 AI 컴퓨팅 요구 사항을 충족할 만큼 CPU에 충분한 코어가 있는 한 단일 소켓 변형을 고려할 수 있습니다. 완전하지는 않지만 이 순서도는 AI 워크로드에 가장 적합한 CPU 설정에 대한 좋은 아이디어를 제공합니다. AI 서버에 적합한 GPU를 선택하는 방법은 무엇입니까? AI 서버의 중수소는  그래픽 처리 장치 또는 GPU 입니다 . 이는 CPU가 AI 워크로드를 훨씬 더 빠르게 처리하는 데 도움이 되는 가속기 역할을 합니다. 그 이유는 GPU에는 CPU 도구 상자의 단순화된 버전이 탑재되어 있지만 그 수가 훨씬 더 많기 때문입니다. 결론은 GPU가 작업을 더 작은 세그먼트로 나누고  병렬 컴퓨팅을 통해 동시에 처리할 수 있다는 것입니다 . 특히 워크로드가 그래픽 데이터로 구성된 경우(AI의 경우가 자주 발생함)자세히 알아보기:《기술 가이드:  CPU와 GPU: 귀하에게 적합한 프로세서는 무엇입니까? 》 《 GIGABYTE의 GPU 서버에 대한 추가 정보  》AI 서버용 GPU를 선택할 때 다음과 같은 질문을 함으로써 분야를 좁히는 데 도움이 될 수 있습니다. AI 워크로드의 특성이 시간이 지남에 따라 급격하게 변할 가능성이 있습니까? 대부분의 최신 GPU는 매우 특정한 작업을 위해 설계되었습니다. 해당 칩 아키텍처는 AI 개발 또는 애플리케이션의 특정 하위 집합에 적합할 수 있습니다. 그러나 서버가 다양한 범위의 과제를 처리할 수 있는 유연성을 발휘하기를 원한다면  FPGA  ("필드 프로그래밍 가능 게이트 어레이") 구성을 기반으로 하는 GPU가 더 나은 선택일 수 있습니다. ASIC("응용프로그램별 집적 회로") 칩과 달리 FPGA 칩은 제조 후 다시 프로그래밍하여 다양한 기능을 수행할 수 있습니다. AMD가 인수한 Xilinx는 유명한 FPGA 칩 제조업체였습니다. 많은 GIGABYTE 서버는 FPGA 가속기와 호환됩니다.다음으로 고려해야 할 질문은 AI 훈련  이나  추론 에 주로 참여할 것인지입니다  . 이 두 프로세스는 "제한된 메모리" AI의 모든 최신 반복의 기초입니다.  훈련 중에 AI 모델은 수십억, 심지어는 수조 개의 매개변수가 포함된 대량의  빅데이터를 수집합니다. 일관되게 올바른 출력을 생성할 수 있을 때까지 알고리즘의 "가중치"를 조정합니다. 추론 중에 AI는 훈련의 '기억'을 활용하여 현실 세계의 새로운 입력에 반응합니다. 이 두 프로세스는 모두 컴퓨팅 집약적이므로 작업 속도를 높이기 위해 GPU 확장 카드와 모듈이 설치됩니다.자세히 알아보기:《기술 가이드:  생성 AI를 활용하려면 "훈련" 및 "추론"에 대해 배워야 합니다. 》《자주 묻는 10가지 질문으로 AI에 대한 지식을 강화하세요》AI 훈련의 경우 특정 GPU에는 프로세스를 간소화할 수 있는 특수 코어와 "엔진"이 내장되어 있습니다. 좋은 예는 32페타플롭스 이상의 FP8  딥 러닝  성능을 제공할 수 있는 NVIDIA HGX™ H100 8-GPU입니다. 이 모듈은 GIGABYTE의  G593-SD0 ,  G593-SD2 및  G593-ZD2  서버에 통합되어 있습니다. NVIDIA HGX™ H100 4-GPU라고 하는 4개의 GPU가 포함된 모듈 변형도 있습니다. GIGABYTE G363-SR0 에 통합되어  액체 냉각을 지원하여  데이터 센터의  PUE를  높이는 동시에 칩의 잠재력을 최대한 활용합니다. . 각 H100 SXM5 GPU에는 새로운 FP8 데이터 유형을 사용하는 4세대 Tensor 코어와 모델 훈련을 최적화하는 "Transformer Engine"이 포함되어 있습니다. 최대 900GB/s의 대역폭을 제공하는 NVLink®는 프로세서를 연결하는 데 사용되며 NVSwitch는 클러스터를 조정하는 데 사용됩니다. AMD의 Instinct™ MI300X는 OCP(Open Compute Project)를따르는 강력한 대안입니다.  OAM 표준. 그 전문 분야 중 하나는 엄청난 메모리와 데이터 처리량인데, 이는 LLM(대형 언어 모델)에서 볼 수 있는 것과 같은 생성 AI 워크로드에 중요합니다. 이를 통해 400억 개의 매개변수가 있는 모델인 Falcon-40과 같은 LLM을 단일 MI300X 가속기에서 실행할 수 있습니다. AMD Instinct™ 플랫폼은 AI 컴퓨팅의 최첨단 성능을 위해 최대 8개의 MI300X GPU를 결합하는 모듈입니다. 곧 GIGABYTE 서버에 출시될 예정입니다.항상 그렇듯이, 예산 제약 내에서 유지하기 위해 약간의 성능을 포기해야 하거나 AI를 교육하는 데이터 세트가 그다지 방대하지 않은 경우 AMD 및 NVIDIA의 다른 제품을 고려할 수 있습니다. GIGABYTE는 AMD Instinct™ MI200 시리즈를 지원하는 포괄적인 솔루션 제품군을 보유하고 있습니다.  가속기의. GIGABYTE G493-SB0 ,  G293-S40 ,  G293-S41 및  G293-S45 에서 지원되는 NVIDIA L40S GPU는  AI 훈련에도 적극 권장됩니다. R162  -Z11  랙 서버는 컴퓨팅 모듈은 포함하지 않지만   최대 3개의 NVIDIA GPU를 지원할 수 있는 PCIe 슬롯이 있는 다목적 서버의 또 다른 좋은 예입니다.자세히 알아보기: 《 GIGABYTE의 랙 서버에 대한 추가 정보  》《사례 연구:  GIGABYTE GPU 서버가 NCKU의 슈퍼컴퓨팅 챔피언십 우승을 도왔습니다 .》 GPU는 AI 워크로드 처리의 핵심이므로 실제 요구 사항에 따라 올바른 옵션을 선택하는 것이 중요합니다.   AI 추론을 위해서는 사용자 시나리오별 장점이 있는 GPU를 찾아보세요. 예를 들어, 시장에 출시된 최고의 AI 추론 서버 중 하나는 GIGABYTE  G293-Z43 입니다 . 이 서버에는 2U 섀시에 16개의 AMD Alveo™ V70 카드로 구성된 고밀도 구성이 들어 있습니다. 이러한 GPU는 외부 메모리 없이 데이터가 AI 모델의 계층을 통과할 수 있게 해주는 적응형 데이터 흐름 아키텍처로 유명한 AMD의 XDNA™ 아키텍처를 기반으로 합니다. 이는 성능을 향상시키고 대기 시간을 낮추는 효과가 있어 G293-Z43은 매우 까다로운 AI 워크로드에 이상적인 솔루션이 됩니다. 여러 개의 PCIe Gen 4(또는 그 이상) 확장 슬롯이 있는 GIGABYTE 서버는 AI 추론 워크로드 처리를 목표로 하는 NVIDIA A2 Tensor Core GPU 및 L4 Tensor Core GPU와도 호환됩니다.추론 워크로드가 주로 클라우드에서 발생하는 경우 전력 효율성 및 신호 처리와 같은 다른 속성이 거래를 성사시킬 수 있습니다. 이 시나리오에서는 클라우드 컴퓨팅의 고유한 요구 사항을 해결하므로 에지에서 보다 효과적으로 추론할 수 있는 Qualcomm® Cloud AI 100 GPU를 고려할 수 있습니다  . 이러한 가속기는 G 시리즈 GPU 서버, R 시리즈 랙 서버 및 E 시리즈 엣지 서버를 포함한 다양한 GIGABYTE 서버에 배포될 수 있습니다  .마지막으로, AI 훈련에 대한 컴퓨팅 요구 사항은 일반적으로 추론보다 높기 때문에 대부분의 훈련 서버는 추론 워크로드에도 사용할 수 있습니다. 업계 리더들이 주도하는 또 다른 흥미로운 트렌드는 모든 범주의 AI 및 HPC 워크로드에 대해 두 가지 장점을 모두 제공하는 "CPU + GPU" 패키지입니다. GIGABYTE의 H223-V10  및  H263-V11  고밀도 서버에서 사용할 수 있는 NVIDIA Grace Hopper™ Superchip  과 AMD의 첫 번째 APU(가속 처리 장치)인 AMD Instinct™ MI300A는 모두 이 새로운 사고 방식의 완벽한 예입니다. . 현재 존재하는 가장 정교한 슈퍼컴퓨팅 플랫폼으로 작업하려면 이 제품을 선택하십시오."AI에 적합한 서버를 선택하는 방법"에 관한 GIGABYTE 기술 가이드를 읽어주셔서 감사합니다. 1부: CPU 및 GPU”. AI 서버의 다른 구성 요소를 선택하는 방법에 대해 자세히 알아보려면 "2부: 메모리, 스토리지 및 기타"를 읽어보세요. 이 기사가 도움이 되고 유익한 정보가 되었기를 바랍니다.

상세보기

[GIGABYTE] 인공 지능에 관해 자주 묻는 10가지 질문

2023.09.14

[GIGABYTE] 인공 지능에 관해 자주 묻는 10가지 질문

인공 지능. 세상은 그 이름으로 떠들썩합니다. 그러나 우리의 세계와 역사를 재편하고 있는 이 흥미롭고 새로운 추세에 대해 얼마나 알고 계십니까? 걱정하지 마세요, 친구들. GIGABYTE 기술이 당신을 보호해 드립니다. AI의 모든 면에서 알아야 할 내용을 빠르고 읽기 쉽고 소화하기 쉬운 10개의 Q&A로 제공합니다!     1. 인공지능(AI)이란 무엇입니까? 인공 지능은  1950년대에 처음 제안된 컴퓨터 과학 의 한 분야로, 독립적인 의사 결정 및 비판적 사고와 같이 인간과 유사한 행동을 보이는 기계를 만드는 것과 관련이 있습니다. 그 이유는 그러한 "똑똑한" 기계가 더 많은 문제를 해결할 수 있을 것이고, 인간이 작업하기 더 쉬울 것이기 때문입니다.지난 수십 년 동안 AI를 개발하기 위해 성공 정도에 따라 다양한 방법이 활용되었습니다. 2010년대부터 머신러닝  ,  딥러닝 등 혁신적인 신기술 덕분에 AI는 비약적으로 발전했습니다  . 현재 AI 상태는 컴퓨터 비전을 통해 시각적 패턴을 인식하고 , 컴퓨터 비전을 통해 인간과 대화할  수 있을 정도로 최첨단이다. 자연어 처리(NLP)를 활용 하고, 생성 AI를 활용해 사실적인 이미지부터 관광 일정까지 다양한 콘텐츠를 제작합니다. 업계 리더들은 AI가 곧 자율주행차 조종과 같이 전통적으로 '공상과학'으로 간주되었던 더 많은 작업을 수행할 수 있게 될 것이라고 예측합니다.자세히 알아보기:《AI의 힘:  자동차 및 운송 산업에서 AI의 이점을 활용하는 방법》《사례 연구:  GIGABYTE를 사용하여 자율 주행 자동차의 두뇌 구축》     2. AI에는 어떤 유형이 있나요? AI는 다양한 기술적 혁신을 포괄하는 용어이기 때문에 컴퓨터에서 체스를 두는 AI와 콘텐츠를 생성하거나 자동차를 운전할 수 있는 AI를 혼동하기 쉽습니다. 더 쉽게 하기 위해 AI를 "능력"이나 "기능"으로 구분할 수 있습니다.'능력'을 기반으로 하는 AI의 세 가지 유형은 좁은 인공지능(ANI, '응용 AI' 또는 '약한 AI'라고도 함), 인공일반지능(AGI, '풀 AI' 또는 '강한 AI'라고도 함)입니다. 및 인공 초지능("ASI" 또는 "초지능")이 있습니다. 현재 AI의 모든 형태는 ANI입니다. 즉, 매우 특정한 작업을 수행하도록 설계되었으며 새로운 기술을 습득할 수 없습니다. AGI는 새로운 작업을 가르칠 수 있다는 점에서 인간과 동등합니다. 이는 아직 미래의 일이지만 생성 AI와 같은 발명으로 기반이 마련되었습니다. ASI는 아이작 아시모프(Isaac Asimov)와 아서 C. 클라크(Arthur C. Clarke)가 쓴 것과 같이 AI가 지능 면에서 인간을 능가하는 공상 과학 소설의 소재입니다.AI는 '기능성'에 따라 '반응형 기계', '제한된 메모리', '마음 이론', '자기 인식'으로 구분할 수 있습니다. 가장 유명한 "반응형 기계"는 체스나 바둑에서 인간 그랜드마스터를이긴 슈퍼컴퓨터입니다. 슈퍼컴퓨터는 규칙을 기억하고 자극에 반응할 수 있지만 기억을 유지할 수 없기 때문에 "연습"을 통해 향상되지 않습니다. 미디어 스트리밍 플랫폼에서 사용하는 추천 엔진과 이메일 서버에서 사용하는 스팸 필터도 "반응형 시스템"입니다. "제한된 메모리"는 과거 데이터를 통해 학습할 수 있기 때문에 더욱 발전되었습니다. AI는   방대한 양의  빅데이터를 분석  하고 알고리즘의 매개변수를 조정하는 AI 훈련을 통해 '학습'합니다. AI 추론 중 , AI가 새로운 정보와 상호 작용하는 곳에서 올바른 결정을 내리기 위해 훈련을 활용합니다. 생성 AI부터 자율주행차까지 대부분의 최신 형태의 AI는 '제한된 메모리' AI입니다.'마음 이론'과 '자기 인식' AI는 모두 여전히 이론적인 개념입니다. “마음 이론” AI는 인간의 감정을 이해하고 동일한 방식으로 반응할 수 있습니다. 왜냐하면 그것이 인간 의사소통의 핵심 부분이기도 하기 때문입니다. "자기 인식" AI는 인간 사용자뿐만 아니라 자신을 인공 구조물로 이해합니다. 그러한 AI는 자신의 "감정"과 "목표"를 개발하여 실제로 인간의 통제를 넘어서게 됩니다. AI를 더 잘 이해하기 위해 '능력'과 '기능'으로 구분할 수 있습니다. 현재 가장 발전된 형태의 AI조차도 공상 과학 소설에 묘사된 AI와는 여전히 거리가 멀습니다. 3. AI는 어떻게 작동하나요? 기본적으로 AI는 새로운 데이터를 해석하고, 실행해야 하는 알고리즘을 이해하고, 데이터를 처리하고, 결과를 제공할 수 있는 대규모 데이터 세트와 결합된 일련의 컴퓨터 알고리즘입니다. 최근 몇 년 동안 AI 개발은 딥 러닝이라는 기계 학습의 하위 집합에 의해 가속화되었습니다. 딥 러닝을 통해 AI는 경험을 통해 학습하고 인간의 개입이 거의 또는 전혀 없이 행동을 수정할 수 있습니다.AI가 학습에 참여하는 방식을 AI 훈련이라고 합니다. 훈련하는 동안 수십억, 심지어는 수조 개의 매개변수가 포함된 막대한 데이터 세트가 인간의 두뇌처럼 구조화된 인공 신경망(ANN)에 입력됩니다. 데이터가 네트워크의 각 계층을 통과할 때 알고리즘은 출력의 유효성을 확인하고 가중치 점수 또는 "편향"을 데이터 매개변수에 할당합니다. 예측(순방향 전파)과 피드백(역방향 전파)의 반복적인 반복을 통해 가중치가 매우 정확해지기 때문에 항상 네트워크를 통해 올바른 경로가 선택됩니다. 간단히 말해서, AI는 다양한 입력에 대한 올바른 응답이 무엇인지 추측하는 연습을 여러 번 수행하여 새로운 데이터가 제시될 때 항상 올바른 추측을 내립니다.AI 추론 중에 AI 모델은 실제 세계에서 레이블이 지정되지 않은 새로운 데이터와 상호 작용합니다. 올바른 출력을 생성하기 위해 훈련의 "기억"에 의존합니다. 추측이 정확한지 여부에 관계없이 다음 AI 훈련을 위해 결과를 저장할 수 있어 AI가 더욱 향상됩니다.자세히 알아보기:《   인공 지능 개발에 사용되는 GIGABYTE AI 서버소개》 《기술 가이드:  생성 AI를 활용하려면 "훈련" 및 "추론"에 대해 배워야 합니다》     4. AI를 통해 어떤 혜택을 얻을 수 있나요? 문제의 사실은 당신이 이미 그렇다는 것입니다. 검색 엔진에 질문을 입력하면 원하는 결과가 나옵니다. 고속도로에서 운전할 때 전자 요금 징수 시스템이 속도를 줄이지 않고도 번호판을 읽을 때; ChatGPT에 이메일 작성을 요청하는 것이 현대 AI의 이점입니다.앞으로 AI는 다양한 산업에 의미 있는 변화를 가져와 우리 일상생활을 완전히 변화시킬 것이 확실합니다. 몇 가지 예를 들어보면  첨단 운전자 보조 시스템(ADAS)이 있습니다. 우리 자동차는 진정한 자율성을 달성할 때까지 정교함의 다양한 단계를 거쳐 발전할 것입니다. 의사는 AI 지원 의료 영상을 사용하여 질병의 징후를 보다 빠르고 정확하게 발견할 수 있습니다. 농부들은 AI를 사용하여 정확한 날씨 예측을 하거나 위성 이미지를 통해 위험한 감염 증상을 발견함으로써 농작물을 보호할 수 있습니다.적극적으로 나서면 AI의 혜택을 더욱 누릴 수 있다는 것은 말할 필요도 없습니다. 결국, 현대 AI 애플리케이션은 너무나 새롭고 판도를 바꾸고 있으므로 다양한 분야의 전문가들이 매일 이를 활용하는 혁신적인 방법을 발견하고 있습니다. AI의 보상을 얻을 수 있는 방법은 여러분의 상상력에 달려 있습니다.자세히 알아보기:《사례 연구:  스페인의 IFISC는 GIGABYTE 서버를 사용하여 귀중한 올리브 숲을 보호합니다.》《사례 연구:  GIGABYTE PILOT, 대만 최초의 자율 주행 버스 운행》     5. AI를 다루는 사람들은 어떤 사람들인가요? 어떤 의미에서 우리는 모두 AI 최종 사용자입니다. 학생이든 직업이 있든, 제조업이든 서비스업에 종사하든, 18륜차를 운전하든 섬세한 뇌 수술을 하든 AI는 어떤 형태나 형태로든 빵과 버터의 일부가 되었습니다. AI 서비스를 개발하고 제공하는 사람들에 대해 이야기하고 있다면 이는 하드웨어 제조업체 업스트림, AI 모델 개발자, 모델 허브 및 MLOps  서비스 미드스트림,   전용 애플리케이션을 제공하는 클라우드 서비스 제공업체(CSP) 로 시작하는 전체 공급망이 될 것입니다.  및 다운스트림 서비스. 이 분야는 다양한 분야로 가득 차 있고 모든 종류의 전문가가 거주하는 광범위한 분야입니다. 실제로 유일하게 통합된 스레드 중 하나는 모든 전문가가 동일한 도구 , 즉 다음 섹션에서 논의할 서버를 사용한다는 것입니다.학계 및 연구 기관도 공급망에서 중요한 역할을 한다는 점에 유의해야 합니다. 학계는 수익성 있는 사업으로 전환될 수 있는 혁신적인 서비스를 창출하든, 참가자들이 기존 도구를 사용하여 세계 기록을 경신하는 슈퍼컴퓨팅 대회를 개최하든 관계없이 항상 AI 개발의 한계를 뛰어넘고 있습니다. 이들 연구자가 주로 서버를 대상으로 작업한다는 사실도 놀랄 일이 아닙니다.자세히 알아보기:《사례 연구:  Rey Juan Carlos University가 AI를 통해 세포 노화 메커니즘 탐구》《사례 연구:  GIGABYTE가 NCKU 슈퍼컴퓨팅 팀이 NLP 세계 기록을 경신하도록 지원》 다음은 AI 공급망의 주요 플레이어에 대한 몇 가지 예입니다. GIGABYTE는 투자사인 Myelintek을 통해 서버 솔루션뿐만 아니라 MLOps 서비스도 제공합니다. 6. AI에는 어떤 종류의 컴퓨터가 사용되나요? AI는 서버라고 불리는 특별한 종류의 엔터프라이즈급 컴퓨터에서 실행됩니다. 개인용 컴퓨터와 모바일 장치도 AI를 실행할 수 있지만 소비자급 하드웨어로 인해 그 기능이 심각하게 제한됩니다. 이것이 대부분의 AI 서비스가 PC나 스마트폰을 클라우드의 컴퓨팅 리소스에 연결할 수 있도록 인터넷 연결을 요구하는 이유입니다.서버 사용의 주요 이점은 이러한 기능을 수행하기 위해 특별히 구축된 다양한 서버에 특수 역할을 할당할 수 있다는 것입니다. 예를 들어 일부 서버는 고성능 컴퓨팅(HPC) 용으로 설계되었지만  다른 서버는 스토리지 측면에서 탁월할 수 있습니다. 사용자의 처분에 특화된 서버 네트워크를 배치함으로써 효율적이고 효과적이며 신뢰할 수 있는 다양한 AI 서비스를 이용할 수 있습니다.서버는 일반적으로 다음 위치에 보관됩니다.  중단 없는 운영과  고가용성을 보장하기 위한 데이터 센터  또는  서버 팜 . AWS(Amazon Web Service), GCP(Google Cloud Platform), Microsoft Azure와 같은 CSP는 수천 대의 서버를 호스팅하기 위해 대규모 데이터 센터를 구축할 수 있습니다. 내부 AI 서비스를 호스팅하기 위해 민간 조직 내에 소규모  서버실을  구축할 수도 있습니다. 실제로 워크스테이션으로 알려진 서버 클래스인 일부 강력한 데스크톱 컴퓨터는 적당한 양의 AI 작업 부하도 처리할 수 있습니다. 자세히 알아보기: 《  GIGABYTE HPC 서버를 구입하여  고성능 컴퓨팅의 이점을 누리십시오》 《  데스크톱에 엔터프라이즈급 컴퓨팅을 배포하려면 GIGABYTE 워크스테이션을 선택하십시오  》《기술 가이드:  서버란 무엇입니까? 》     7. AI 서버란 무엇인가요? 맞춤형 서버 품질로 인해 전문 AI 서버가 탄생했습니다. GIGABYTE에는  AI 서버 및 기타 제품 주제에 대한 전용 웹페이지가 있습니다 . 간단히 말하면, AI 서버는 다음과 같은 점에서 일반 서버와 다릅니다.AI 훈련과 AI 추론 모두 컴퓨팅 집약적이므로 강력한 프로세서가 서버에 추가되어 슈퍼컴퓨팅 플랫폼으로 전환됩니다. 일반적으로 서버에는  중앙 처리 장치(CPU)  와  그래픽 처리 장치(GPU)라는 두 가지 유형의 프로세서가 있습니다 . AI 서버에는 두 종류의 칩의 최신 버전이 포함될 가능성이 높습니다.CPU의 경우 사용자가 CISC와 함께 작업하려는 경우 AMD 또는 Intel에서 만든 최상위 x86 칩이 선택됩니다  .기반 에코시스템 또는 사용자가 RISC 기반 제품 의 클라우드 네이티브 특성을 선호하는 경우 ARM 칩  . 반면, GPU는 CPU가 더욱 빠르게 계산하도록 돕는 가속기입니다. AI 워크로드의 특성에 따라 사용자는 다양한 GPU 모듈이나 확장 카드를 선택할 수 있습니다. 예를 들어, GIGABYTE  G593-SD0 ,  G593-SD2 및  G593-ZD2  는 지구상에서 가장 강력한 AI 훈련 모듈 중 하나인 NVIDIA HGX™ H100 8-GPU와 통합된 GIGABYTE의 세 가지 서버입니다. GIGABYTE  G293-Z43은  16개의 AMD Alveo™ V70 카드로 구성된 고밀도 구성을 갖추고 있어 AI 추론에 최적화된 플랫폼입니다.메모리, 스토리지, PSU와 같은 AI 서버의 다른 구성 요소도 서버가 방대한 양의 데이터를 효율적으로 처리하고 정교한 AI 계산을 수행할 수 있도록 최신 혁신 기술을 채택할 가능성이 높습니다.자세히 알아보기: 《 AMD CPU로 구동되는 GIGABYTE 서버에 대한 추가 정보  》 《 Intel CPU로 구동되는 GIGABYTE 서버 에 대한 추가 정보  》 《 GIGABYTE의 ARM 서버 에 대한 추가 정보  》 간단히 말해서 AI 서버는 최첨단 프로세서와 기타 구성 요소를 사용하여 가장 강력한 컴퓨팅 성능으로 AI 개발 및 응용 프로그램을 지원합니다. 8. AI 발전에서 GIGABYTE 기술의 역할은 무엇입니까? GIGABYTE Technology는 AI 및 HPC 서버, 서버 마더보드 및 워크스테이션 분야에서 세계적으로 유명한 업계 리더입니다. AI 발전에서 AI의 역할은 하드웨어와 소프트웨어를 모두 포괄합니다. 서버 측면에서 GIGABYTE는 AI 서버의 전문 라인뿐만 아니라 데이터 센터에서 다양한 역할을 수행하는 다양한 서버 시리즈의 포괄적인 포트폴리오를 보유하고 있습니다.  예를 들어, GPU 가속  이기종 컴퓨팅을 위한 G-시리즈 GPU 서버 ,   데이터 스토리지를 위한  S-시리즈 스토리지 서버 , 다양한 애플리케이션을 위한 R-시리즈 랙 서버  , 컴팩트한  멀티 노드  컴퓨팅  을 위한 H-시리즈 고밀도 서버가 있습니다.  차대.GIGABYTE는 공급망 상위에 있는 칩 제조업체와 긴밀히 협력하여 당사의 서버 솔루션에 AMD, Intel, NVIDIA 및 기타 공급업체의 최신 CPU 및 GPU가 장착되도록 합니다. 업계의 다른 주요 업체들과의 긴밀한 관계를 통해 GIGABYTE를 구입하시면 AI를 위한 가장 발전되고 인증된 컴퓨팅 플랫폼을 얻게 됩니다. 예를 들어, GIGABYTE G593-SD0 GPU 서버는 NVIDIA 인증을 받은 최초의 SXM5 서버였습니다.  GIGABYTE는 또한 실험실에서 도로 상황을 시뮬레이션하기 위해 대만 대학(NTU)이 개발한 "고정밀 교통 흐름 모델" 과 같이 엣지 장치의 많은 데이터로 작업하는 사용자를 위해 ARM CPU로 구동되는 서버를 생산하는 데 앞장섰습니다.  자율주행차 테스트를 위해핵심 서버 구성 요소 외에도 GIGABYTE에는 AI 작업 부하를 처리하는 데 도움이 되는 동시에 다른 이점을 제공하는 최첨단 발명품도 포함되어 있습니다.  GIGABYTE 는 프로세서에서 발생하는 열을 방출하기 위해 공기 대신 액체 냉각수를 사용하는 완전한  액체 냉각 및 침수 냉각 서버 솔루션 라인을 보유하고 있습니다. 이러한 혁신적인 열 관리 시스템은 프로세서가 최대  TDP를 달성하는  동시에 데이터 센터의  PUE를 향상시켜 탄소 배출을 효과적으로 줄이는 데 도움이 됩니다. 기타 부가 가치 서비스로는 GIGABYTE 서버 구입 시 무료로 제공되는 원격 관리 소프트웨어 도구인 GIGABYTE Management Console(GMC) 및 GIGABYTE Server Management(GSM)가 있습니다.소프트웨어 측면에서 GIGABYTE의 피투자 회사인 MyelinTek은  MLOps용 DNN 교육 어플라이언스를 제공합니다  . 이 패키지는 AI 개발자에게 데이터 세트를 관리하고 AI 모델 분석에 참여할 수 있는 이상적인 환경을 제공합니다.     9. AI의 주요 개발자는 누구입니까? AI 개발의 대부분은 컴퓨팅 기능의 발전에 달려 있기 때문에 앞서 언급한 AMD, Intel, NVIDIA 등의 많은 칩 개발자는 AI 기술의 중요한 선구자로 간주됩니다. GIGABYTE Technology와 같은 서버 브랜드는 AI 개발 및 응용 프로그램에 참여하는 사용자에게 최신 제품을 제공하는 데 도움을 줍니다. 예를 들어 마드리드의 Rey Juan Carlos University는  GIGABYTE 서버로 구성된 컴퓨팅 클러스터를  사용하여 최첨단 AMD EPYC™ 및 Intel® Xeon® Scalable CPU는 물론 NVIDIA HGX™ GPU 컴퓨팅 모듈을 활용합니다. 세포 노화에 대한 연구.알파벳, 아마존, 애플, IBM, 메타, 마이크로소프트 등 글로벌 기술 대기업들도 AI 분야의 선두주자다. 그들은 다른 AI 개발자가 사용할 수 있는 하드웨어 및 소프트웨어 플랫폼을 제공하고, 자신의 제품을 활용하는 최종 사용자를 위한 새로운 AI 애플리케이션 및 서비스를 개발합니다.다른 회사들은 특정 애플리케이션을 위한 AI의 선구자입니다. 몇 가지 예를 나열하자면 OpenAI는 생성적 AI 모델뿐만 아니라 ChatGPT와 같이 해당 모델을 기반으로 구축된 AI 도구로 유명합니다. 모빌아이(Mobileye)는 이스라엘의 ADAS 및 자율주행 기술 개발업체로, 자율주행차의 도로 운행을 선도하고 있습니다.     10. AI의 미래는 무엇인가? AI가 "자기 인식"을 하거나 인간 지능을 능가하기 훨씬 전에, 일하는 방식부터 여행하는 방식, 노는 방식, 돌보는 방식까지 일상생활의 모든 측면에 도움이 되는 데 사용될 것입니다. 우리의 건강. AI 발전의 지표로 생각할 수 있는 두 가지 업계 지표가 있습니다.● 컴퓨팅 플랫폼: 처리 능력과 서버 하드웨어의 발전은 더욱 강력한 AI를 육성하는 데 도움이 될 것입니다. 따라서 하드웨어 제조업체가 더 많은 양의 데이터를 더 빠르게 계산할 수 있는 기능을 갖춘 새로운 컴퓨팅 제품을 출시할 때 AI 개발의 도약을 찾아보세요. 주목해야 할 좋은 기술 브랜드는 GIGABYTE Technology입니다! 첫째, 우리는 AI 개발을 가속화할 최신 하드웨어 기술 혁신을 갖춘 새로운 AI 서버를 지속적으로 출시하고 있기 때문입니다. 둘째, 최신 AI 관련 성공 사례와 심층 분석을 다루는 새로운 콘텐츠를 공식 웹사이트에 자주 게시하기 때문입니다.● 소프트웨어 개발: 새로운 컴퓨팅 하드웨어를 바탕으로 다양한 수직 시장에서 사용할 수 있는 새로운 AI 모델과 애플리케이션이 개발될 것입니다. 따라서 AI 소프트웨어의 혁신이 발표된 직후 새로운 AI 지원 서비스가 출시될 것으로 예상할 수 있습니다.

상세보기

[GIGABYTE] 자동차 및 운송 산업에서 AI를 활용하는 방법

2023.09.11

[GIGABYTE] 자동차 및 운송 산업에서 AI를 활용하는 방법

자동차 및 운송 산업에 종사하는 경우, 인공 지능이 이 분야에서 어떻게 새로운 기회를 창출했는지, 그리고 앞서 나가기 위해 사용할 수 있는 도구에 대한 심층 분석을 몇 분 동안 읽어 보십시오. 이 기사는 GIGABYTE Technology가 진행 중인 "Power of AI" 시리즈의 일부로, 최신 AI 관련 동향을 조사하고 용감한 비전가들이 이 흥미진진한 패러다임 전환의 이점을 어떻게 누릴 수 있는지를 설명합니다.     소개 인공지능(AI)은 자동차와 운송 산업에 엄청난 변화를 가져오는 촉매제입니다. 승객을 A 지점에서 B 지점으로 이동시키는 과정과 관련된 모든 장치에 최첨단 컴퓨팅 성능을 주입한다는 것은 우리의 차량과 도로가 인간의 입력에 의존하지 않고도 편의성과 안전이라는 목표를 달성하는 데 도움이 될 수 있음을 의미합니다. 이러한 짜릿한 패러다임 전환은 자율주행차(무인차 또는 자율주행차라고도 함)와 '스마트 교통'이라고도 알려진 지능형 교통 시스템(ITS)의 확산을 통해 가장 직접적으로 관찰할 수 있습니다.리소스:ADAS란 무엇입니까?인공 지능이란 무엇입니까?지능형교통시스템(ITS)이란 무엇입니까?     자동차 및 운송과 관련하여 AI는 광범위한 기술적 이정표를 포괄하는 포괄적인 용어입니다. 모든 이정표는 기계가 주변 세계를 "인식"하고, 데이터의 중요성을 "처리"하고, "생산"하도록 돕는 것과 관련이 있습니다. ” 실행 가능한 결과를 얻었습니다. 이것이 바로 AI에 대한 논의에서 "컴퓨터 비전" 또는 "딥 러닝"과 같은 용어가 언급되는 이유입니다. 고성능 컴퓨팅(HPC)과 엣지 컴퓨팅은 이러한 솔루션의 개발과 배포에 중요한 역할을 합니다.AI가 주도권을 잡을 수 있는 시대가 가까워짐에 따라, 대담한 새로운 혁신이 하루아침에 지형을 바꿀 수 있는 빠르게 진화하는 시장이라는 점을 인식하는 것이 중요합니다. 다음 섹션에서는 이 분야의 두 가지 대표적인 AI 혁신인 자율주행차와 ITS를 살펴보고 사용할 수 있는 도구와 기회를 찾을 때 참고할 수 있는 성공 사례를 살펴보겠습니다. 자료:컴퓨터 비전이란 무엇입니까?딥러닝이란 무엇인가요?엣지 컴퓨팅이란 무엇입니까?고성능 컴퓨팅(HPC)이란 무엇입니까?   자율주행차 교육: AI에게 운전 교육 SAE International에 따르면 주행 자동화에는 6가지 레벨이 있으며, 레벨 0은 자동화가 없는 상태이고 레벨 5는 완전 자동화입니다. 레벨 1~4는 각각 운전자 지원, 부분 자동화, 조건부 자동화, 고도 자동화를 의미한다. 개발자는 카메라, 레이더, LiDAR 등 다양한 유형의 센서에서 수집한 레이블이 지정된 데이터로 AI 모델을 "훈련"하여 자율 주행 자동차의 자동화를 발전시킵니다. AI는 실제 상황에서 라벨링되지 않은 데이터에 노출되더라도 보행자부터 교통 표지판, 다른 자동차까지 도로에서 만날 수 있는 모든 객체를 결국 인식할 수 있게 됩니다.       AI는 막대한 양의 데이터를 '연구'해야 하고 데이터의 대부분이 그래픽 형식이기 때문에 훈련 과정에는 병렬 컴퓨팅이 가능한 고급 그래픽 처리 장치(GPU)가 장착된 서버가 필수적입니다. GIGABYTE Technology의  G-시리즈 GPU 서버는  GPU 가속을 전문으로 합니다. NVIDIA의 HGX™ H100 8-GPU 컴퓨팅 모듈과 4세대 Intel® Xeon® Scalable 또는 AMD EPYC™ 9004 CPU를 각각 통합한 G593-SD0 및 G593-ZD2는 시장에서 가장 강력한 AI 슈퍼컴퓨팅 플랫폼 중  일부  입니다  .     세계적으로 유명한  이스라엘의 자율 주행 기술 개발자는  GIGABYTE의 GPU 서버를 사용하여 자사의 무인 자동차를 훈련시킵니다. 프로토타입 차량이 주행할 때마다 64테라바이트의 원시 데이터가 반환됩니다. GIGABYTE 서버는 최대 효율성으로 데이터를 처리할 수 있습니다.리소스:AI 훈련이란 무엇입니까?GPU(그래픽 처리 장치)란 무엇입니까?병렬 컴퓨팅이란 무엇입니까?   자율주행차 추론: 도로 테스트 및 배포 AI 모델이 훈련을 통해 새로운 입력에 반응하는 프로세스를 추론이라고 합니다. 이것이 바로 무인 자동차가 실제 도로를 주행할 때 수행하는 작업입니다. 즉, 일련의 센서를 통해 수집한 정보를 사전 훈련된 모델에 입력하여 제어 시스템에 대한 지침을 생성하는 것입니다. 추론 단계의 데이터는 AI를 지속적으로 개선하기 위해 다음 훈련 단계에서도 사용될 수 있습니다.     추론하는 동안 컴퓨팅 리소스는 원격이거나 온보드일 수 있습니다. GIGABYTE의  E-시리즈 에지 서버는  대기 시간과 대역폭 사용을 줄이기 위해 가능한 한 데이터 소스에 물리적으로 가까운 곳에서 계산을 수행해야 하는 에지 컴퓨팅 시나리오에 적극 권장됩니다. GIGABYTE의 독점 열 관리 및 섀시 설계 덕분에 고도로 발전된 프로세서를 초집적 및 소형 서버에 쉽게 배포할 수 있습니다. 임베디드 차량 내 컴퓨팅과 관련하여 GIGABYTE는 차량의 중심에서 AI 모바일 엣지 컴퓨팅 플랫폼 역할을 하는  자동 운전 제어 장치(ADCU)  와 ARM 기반  차량 내 텔레매틱스 제어 장치( TCU)를  통해 실시간 통신 및 차량 관리 기능을 제공합니다.     자율주행 버스가  대만 장화 해안 산업단지에서 도로를 운행했습니다. 전기셔틀버스 '윈버스(WinBus)'는 정해진 노선만 운행하면 사람의 개입 없이 운행할 수 있다. GIGABYTE의 ADCU는 차량의 센서, 배터리 및 제어 시스템을 함께 연결하여 레벨 4 "고도 자동화"를 달성하는 데 사용됩니다.리소스:AI 추론이란 무엇입니까?텔레매틱스란 무엇입니까?   자율주행차 테스트: 안전 보장을 위한 시뮬레이션 자율주행차가 도로를 주행할 준비가 되기 전에 광범위한 테스트를 수행해야 합니다. 이를 해결하는 한 가지 방법은 컴퓨터 시뮬레이션을 이용하는 것입니다. "디지털 트윈"의 맥락에서 고도로 정밀한 모델은 테스트 목적으로 도로 상태와 교통 흐름을 재현할 수 있습니다. 모델이 정확하려면 도시와 고속도로에 설치된 도로변 센서를 통해 다양한 데이터 매개변수를 수집해야 합니다. 주요 매개변수에는 차량 수, 차량 간 거리, 차량 속도가 포함됩니다.       대부분의 클라우드 컴퓨팅 장치와 마찬가지로 길가 센서는 RISC 아키텍처를 따르는 컴퓨터 칩을 사용하므로 전력 소비가 적다는 장점이 있습니다. 트래픽 흐름 모델을 보다 효율적으로 개발하려면 동일한 컴퓨팅 언어를 "말하는" 서버를 사용하는 것이 좋습니다. "클라우드 네이티브" RISC 기반 ARM 프로세서를 기반으로 구축된 GIGABYTE의  ARM 서버를 만나보세요. 이로 인해 컴퓨터 간에 "변환"하기 위해 컴파일러를 사용할 수 없을 뿐만 아니라 RISC의 특성은 각 개별 프로세서가 더 많은 코어를 제공하여 TCO를 낮추면서 성능을 높일 수 있음을 의미합니다.     대만 대학(NTU)은 GIGABYTE의  G242-P32를 사용하여 "고정밀 교통 흐름 모델"을  배양하고 있습니다  . 이는 모델 정확도를 보장하기 위해 실제 조건과 디지털 표현 간의 동기화가 0.05초 이내에 이루어져야 하는 대만의 도로 조건을 고도로 동기화되고 매우 정확하게 재현합니다. ARM 기반 CPU 덕분에 개발 시간이 절반으로 단축됩니다. 팀의 과학자들은 서버가 AI 훈련, 컴퓨터 모델 개발, 데이터 전송 등을 할 수 있는 올인원 솔루션이라고 칭찬합니다.자료:디지털 트윈이란 무엇입니까?클라우드 컴퓨팅이란 무엇입니까?RISC란 무엇인가요?코어란 무엇입니까?CPU 란 무엇입니까?     자율주행차: 요약 자동차와 운송 부문에서 인공지능의 표준을 제시하는 것 중 하나가 바로 자율주행차입니다. AI 운전자를 "훈련"하려면 엄청난 양의 데이터를 처리해야 하기 때문에 GPU 가속을 제공하는 컴퓨팅 플랫폼이 적합한 솔루션입니다. GIGABYTE는 고급 CPU와 GPU의 성능을 결합하여 슈퍼컴퓨팅 플랫폼을 사용자 손에 직접 제공하는 데 특화된 광범위한 G 시리즈 GPU 서버를 제공합니다. 좋은 예는 4세대 Intel® Xeon® 확장 가능 CPU와 NVIDIA의 HGX™ H100 8-GPU 컴퓨팅 모듈을 갖춘 G593-SD0입니다.AI 모델이 훈련되면 자율주행차는 전 세계의 새로운 데이터에 대한 올바른 응답을 선택하여 '추론'하여 안전하고 편리한 여행을 보장합니다. 온보드 컴퓨터를 통해 추론이 수행되면 GIGABYTE의 ADCU(Automated-Driving Control Unit)가 무인 차량의 두뇌 역할을 할 수 있습니다. 지원을 제공하기 위해 원격 리소스가 필요한 경우 GIGABYTE의 E-시리즈 엣지 서버를 데이터 센터 외부 위치에 배포하여 대기 시간과 대역폭 사용을 줄이면서 적용 범위를 넓힐 수 있습니다.훈련 및 추론 외에도 자율주행차는 컴퓨터 시뮬레이션을 통해 테스트되어 도로 준비 상태를 보장할 수 있습니다. "고정밀 교통 흐름 모델"은 연구실에서 도로 상황을 재현하는 한 가지 방법입니다. 이러한 모델은 길가 센서를 통해 수집된 데이터에 크게 의존하기 때문에 해당 장치와 동일한 명령 세트 아키텍처를 따르는 서버는 효율성을 향상시킬 수 있습니다. GIGABYTE의 "클라우드 네이티브" ARM 서버는 RISC 아키텍처를 기반으로 하며 사례 연구에서 개발 시간을 절반으로 단축한 것으로 나타났습니다.     지능형 교통시스템 거버넌스: AI 기반 생태계 구축 AI 물결은 자동차 부문에 혁명을 일으킬 뿐만 아니라 우리의 교통 생태계에도 광범위한 영향을 미칩니다. 결국, 자동차를 운전할 만큼 똑똑한 인공 지능이 번호판을 읽고 요금소를 관리할 수도 있다는 것은 당연한 일입니다. 앞으로 AI가 점점 더 많은 거버넌스 관련 작업을 처리하는 것은 불가피합니다.     주차장과 고속도로 요금소 모두에 적용 가능한 컴퓨터 비전을 활용해 번호판의 숫자와 문자를 인식하는 것은 AI 추론의 대표적인 예입니다. 입력되는 양이 어마어마합니다. 예를 들어 대만의 ETC(Electronic Toll Collection) 시스템을 사용하면 매일 1,600만 개의 새로운 데이터 포인트가 처리됩니다. GIGABYTE의 G293-Z43 과 같은 강력한 AI 추론 서버는  작업에 적합합니다. 2U 섀시에 16개의 AMD Alveo™ V70 카드로 구성된 업계 최고의 초고밀도 구성은 최소한의 물리적 설치 공간과 대기 시간으로 최대의 가속을 제공합니다.     앞서 언급했듯이 추론 단계의 피드백을 사용하여 AI 모델 출력의 정확성을 향상시킬 수 있습니다. AI를 지속적으로 업데이트하고 개선하기 위해 파이프라인을 설정하는 방식을 MLOps라고 합니다. GIGABYTE의 피투자 회사인 MyelinTek Inc.는  운송 및 기타 여러 분야에서 AI 개발 프로세스를 간소화할 수 있는 MLOps용 소프트웨어 및 하드웨어 패키지인 DNN Training Appliance를 제공합니다.자료:랙 유닛(U)이란 무엇입니까?MLOps란 무엇인가요?     지능형 교통 시스템 통신: IIoT/V2X 기기의 네트워크 구축 운송 부문에서 AI가 수행하는 또 다른 중요한 역할은 스마트 교통 네트워크를 완성하는 데 도움이 되는 IIoT 및 V2X 장치를 강화하는 것입니다. 전신주, 신호등, 버스 정류장 등 도시와 도로의 다양한 요소는 모두 끊임없이 확장되는 AI 인프라의 일부가 될 수 있습니다.     이 시나리오에서는 다목적 엣지 컴퓨팅 플랫폼이나 강력한 임베디드 시스템이 인공 지능을 배포하는 가장 좋은 방법입니다. GIGABYTE의  AI 모바일 엣지 컴퓨팅 플랫폼은  대부분의 도로변 설치에 권장되는 솔루션입니다. 손쉬운 확장성을 통해 더 많은 가속기를 추가할 수 있으며, 풍부한 I/O 포트 제공으로 거의 모든 환경에서 사용하도록 조정할 수 있습니다. AI는 운전자와 보행자 모두에게 최신 교통 정보를 제공할 수 있으며, 관리자가 거시적 수준에서 조정할 수 있도록 제어 센터에 보고할 수도 있습니다.     GIGABYTE는 또한   이 분야의 고객을 위해 산업용 마더보드와 임베디드 IoT 솔루션을 제공합니다. 이 제품의 주목할만한 특징으로는 광범위한 작동 온도, 낮은 전력 소비 및 뛰어난 연결성이 있습니다. Blaize를 사용한 GIGABYTE의 솔루션은  자동차 및 운송 산업 전반에 걸쳐 인공 지능이 확산될 수 있도록 엣지에서 추론 가속을 제공하기 때문에 처리 속도도 중요하지 않습니다  .리소스:IIoT란 무엇입니까?V2X란 무엇입니까?     지능형 교통 시스템: 요약 자율주행차 외에도 AI는 교통 관련 인프라에 주입되어 우리가 이동하는 방식을 관리하고 목적지에 안전하고 편안하게 도달할 수 있도록 지원하는 지능형 교통 시스템을 구축할 수도 있습니다.번호판 인식은 AI 기반 교통 생태계에서 중요한 역할을 합니다. 컴퓨터 비전은 고속도로와 주차장에서 차량을 식별하는 데 사용됩니다. 이는 추론 집약적인 작업이므로 GIGABYTE의 G293-Z43과 같은 강력한 AI 추론 서버가 세상을 변화시킬 수 있습니다. AI를 재교육하고 모델을 업데이트하기 위해 추론 단계의 데이터를 사용하는 관행은 자동차 및 운송 산업의 AI 개발에 적극 권장되는 MLOps용 토털 솔루션인 GIGABYTE의 DNN 교육 어플라이언스를 사용하여 간소화될 수 있습니다.IIoT 및 V2X 네트워크의 실현은 차량이 항상 주변 환경과 연결되어 안전성과 편의성을 크게 향상시키는 데 도움이 됩니다. 가로등부터 디지털 간판까지 다양한 유형의 길가 설치는 교통 업데이트, 차량 호출과 같은 서비스를 제공할 수 있는 엣지 컴퓨팅 시스템의 플랫폼이 될 수 있습니다. GIGABYTE의 AI 모바일 엣지 컴퓨팅 플랫폼, 산업용 마더보드 및 임베디드 IoT 솔루션은 모두 인공 지능 애플리케이션의 포화도를 높이는 데 사용될 수 있으며 이는 이동 중인 모든 여행자에게 유용한 지원을 제공할 것입니다.     왜 기가바이트인가? 자동차 및 운송 부문을 휩쓸고 있는 AI 혁명에 참여하고 싶다면 가장 진보된 AI 발명품을 마음대로 사용할 수 있는 동시에 새로운 방법이 어떻게 길을 열어줄 수 있는지에 대한 지식을 공유할 수 있는 솔루션 제공업체가 필요합니다. 무한한 기회. 컴퓨터 하드웨어의 선두 공급업체이자 기술 산업의 유명한 선구자인 GIGABYTE Technology는 AI 여정에 필요한 파트너입니다. 우리는 인공 지능이 가져온 패러다임 전환에서 승리하는 데 도움이 될 이러한 속성을 제공합니다.● 포괄적인 제품군이전 섹션에서 설명했듯이 GIGABYTE는 교육, 추론 및 테스트를 위한 AI 서버와 스마트 교통 네트워크 배포를 위한 엣지 컴퓨팅 플랫폼을 포함하여 자율 차량 및 지능형 교통 시스템 개발의 다양한 단계를 위한 컴퓨팅 솔루션을 제공합니다. 업계의 다양한 측면을 충족하는 제공업체와 협력하면 고객을 위한 프로세스를 간소화할 수 있습니다. 이는 또한 이 수직 시장에 대한 GIGABYTE의 전문성을 입증하는 것이기도 합니다.● 최첨단 컴퓨팅 능력GIGABYTE는 x86 CPU용 AMD 및 Intel, ARM CPU용 Ampere, GPU용 AMD, NVIDIA 등을 포함하여 슈퍼컴퓨팅 분야의 저명한 칩 공급업체와 긴밀히 협력하여 당사의 컴퓨팅 플랫폼이 가장 진보된 처리 능력을 활용할 수 있도록 보장합니다. 광범위하고 다재다능한 공급업체는 고객이 광범위한 최적 선택 중에서 개별 요구에 가장 적합한 처리 장치를 선택할 수 있도록 보장합니다.● 독특하고 독점적인 제품 디자인GIGABYTE의 독점 섀시 설계 및 열 관리 기능은 엣지 컴퓨팅 애플리케이션에 필수적인 최고의 컴퓨팅 밀도와 최소한의 설치 공간을 제공합니다. 추가 보너스로, 당사 솔루션의 향상된 전력 효율성은 장기간 배포에 적극 권장되는 동시에 지속 가능성에도 도움이 됩니다.● 부가 가치 서비스 보완다른 회사에서는 서버 관리 소프트웨어 비용을 청구할 수도 있지만 GIGABYTE는 그렇지 않습니다. 모든 GIGABYTE 서버에는 추가 비용 없이 GIGABYTE 관리 콘솔이 함께 제공됩니다. 이 사용자 친화적인 도구를 사용하면 IT 관리자가 웹 기반 브라우저를 통해 원격으로 서버를 최적화하고 제어하여 성능을 극대화하고 고가용성을 보장할 수 있습니다. 독점 다중 서버 원격 관리 소프트웨어 플랫폼인 GIGABYTE 서버 관리(GSM)는 공식 GIGABYTE 웹사이트에서 무료로 다운로드할 수도 있습니다.● 수십 년간 입증된 실적GIGABYTE는 1986년 창립 이래 첨단 기술로 세상을 더 나은 곳으로 만들기 위해 노력해 왔습니다. 서버 사업에 대한 참여는 2000년부터 시작되었습니다. 2023년에는 서버 사업부를 분사해 기가컴퓨팅테크놀로지(Giga Computing Technology)라는 전액 출자 자회사를 설립했다. 생태계에 대한 수십 년간의 투자는 GIGABYTE 서버가 최신 AI 솔루션과 완벽하게 호환되며 NVIDIA, Linux, Red Hat 등과 같은 업계 리더의 인증을 자랑한다는 것을 의미합니다.● 믿을 수 있는 서비스 및 지원 GIGABYTE는 광범위한 제품에 대해 안정적인 서비스와 지원을 제공합니다. 온라인 eSupport 시스템을 사용하여 전문 서비스 팀에 연락할 수 있으며, FAQ를 통해 현장에서 문제를 해결하는 데 도움을 받을 수 있습니다.     요약 우리는 일하고, 쉬고, 이동하는 방식을 재정의할 인공 지능 중심 혁신의 지속적인 여정에서 교차로에 서 있습니다. 자율주행차와 지능형 교통 시스템 분야에서 AI는 우리가 타고 다니는 무인자동차와 이를 지원하는 스마트 교통 네트워크를 시작으로 이미 미래에 대한 우리의 비전을 현실로 만들고 있습니다.기본적으로 자율주행차는 AI 훈련과 추론이라는 두 단계를 통해 개발됩니다. 안전성을 더욱 강화하기 위해 컴퓨터 모델을 사용한 추가 테스트 단계를 수행할 수 있습니다. GIGABYTE 기술은 서버 부문에서 수십 년의 경험을 바탕으로 AMD, Ampere, Intel 및 NVIDIA와 같은 칩 공급업체의 최신 프로세서 및 가속기로 구동되는 인증된 AI 플랫폼을 제공합니다. 이 칩은 GIGABYTE의 독점 서버 설계와 통합되어 고객에게 차량용 AI 개발을 위한 최고의 도구를 제공합니다.AI는 또한 도로에서의 거버넌스 및 커뮤니케이션 책임을 맡을 수도 있습니다. 자동차 번호판 인식은 첨단 AI의 한 형태인 컴퓨터 비전으로 가능해진다. 길가 설치는 상호 연결되어 여행자에게 최신 정보를 전달하는 IIoT 및 V2X 장치의 네트워크를 구축할 수 있습니다. GIGABYTE는 AI 서버 외에도 인프라의 모든 부분에 AI를 부여할 수 있는 엣지 컴퓨팅 플랫폼과 임베디드 컴퓨터(IPC)도 제공합니다.AI의 힘은 자동차와 운송 산업에서 전속력으로 발전하고 있습니다. 이러한 흥미진진한 추세를 활용하는 데 도움을 줄 수 있는 IT 솔루션 파트너를 찾고 있다면 GIGABYTE Technology에 연락하여 우리가 귀하를 위해 무엇을 할 수 있는지 알아보는 것이 좋습니다.

상세보기

[GIGABYTE] 서버용 냉각 솔루션을 선택하는 방법은 무엇입니까? GIGABYTE의 기술 가이드

2023.07.19

[GIGABYTE] 서버용 냉각 솔루션을 선택하는 방법은 무엇입니까? GIGABYTE의 기술 가이드

CPU와 GPU가 계속해서 발전함에 따라 더 많은 전력을 소비하고 더 많은 열을 발생시킵니다. 서버를 구매할 때 온도 제어를 염두에 두는 것이 중요합니다. 우수한 냉각 솔루션은 에너지 비용을 높이거나 지속적인 유지 관리를 요구하지 않고도 원활하게 작동하도록 합니다. 고성능 서버의 업계 선두주자인 GIGABYTE Technology는 적합한 냉각 솔루션을 선택하는 데 도움이 되는 이 기술 가이드를 제공합니다. 공기, 액체, 침지의 세 가지 인기 있는 옵션을 분석하고 GIGABYTE가 무엇을 할 수 있는지 시연합니다.       1.       공기 냉각 공기는 열을 전달하는 주요 매체이므로 공기 기반 시스템의 경험 법칙은 공기 흐름을 개선하는 것입니다. 이는 전체 데이터 센터 또는 단일 서버에 적용할 수 있습니다. 용어집:《데이터 센터란? 》《서버란? 》 데이터 센터에서 기류는 열을 효율적으로 분산시키도록 설계된 특정 경로를 따릅니다. 먼저 시원한 공기가 바닥 통풍구를 통해 데이터 센터의 "냉기 통로"로 펌핑됩니다. 그런 다음 시원한 공기가 서버 랙을 통해 전달되어 "열기 통로"로 열을 전달합니다. 마지막으로 가열된 공기는 천장 환기구로 유입되고 컴퓨터실 공기 조절 장치(CRAC)에 의해 냉각되어 주기가 갱신됩니다. 서버 자체의 공기 흐름을 원활하게 하는 것도 중요합니다. 차가운 공기는 열 에너지를 분산시키기 위해 모든 주요 구성 요소를 통과해야 합니다. GIGABYTE는 공기 중 오염 물질의 유입을 방지하면서 공기 흐름을 개선하기 위한 다양한 혁신적인 하드웨어 설계 및 프로그래밍을 제공하여 서버를 식히기 쉽습니다. 공냉식 데이터 센터에서 열이 어떻게 소산되는지 보여주는 측면 다이어그램. 서버는 또한 공기 흐름을 용이하게 하도록 설계되어야 합니다. 장비 고장을 일으킬 수 있는 공기 중 오염 물질에 대해 더 큰 보호를 제공하도록 사용자 정의할 수 있습니다.    ● 하드웨어: 공기 흐름 친화적인 디자인 GIGABYTE의 모든 공랭식 서버는 독점적인 공기 흐름 친화적인 하드웨어 설계와 함께 제공됩니다. 이는 섀시의 전체 기류 방향이 시뮬레이션 소프트웨어로 평가된 다음 환기를 최적화하도록 미세 조정되었음을 의미합니다. 강력한 팬과 고성능 방열판을 설치하여 차가운 공기와 주요 부품 표면의 접촉을 극대화하여 방열 효과를 높였습니다. 공기 흐름을 더욱 개선하기 위해 방열판에 특수 공기 덕트가 부착되어 있습니다. 구성 요소는 내열성 재료로 만들어져 기계의 나머지 부분에 열이 전달되는 것을 방지하므로 서버가 과중한 작업을 처리할 때에도 열을 이길 수 있습니다. GIGABYTE의 공랭식 서버는 과중한 압력 테스트 작업 부하에서도 놀라운 성능을 발휘합니다. 섀시 디자인이 환기에 최적화되어 있기 때문입니다. 강력한 팬과 방열판이 주요 위치에 설치되었습니다. 구성 요소는 내열성 재료로 만들어졌습니다.   ● 프로그래밍: 자동 팬 속도 제어하드웨어 디자인 외에도 프로그래밍은 똑같이 정교합니다. GIGABYTE 서버는 자동 팬 속도 제어 기능이 표준으로 제공됩니다. 센서는 섀시에 배치되어 CPU, GPU, 메모리 및 하드 드라이브의 온도를 모니터링합니다. 베이스보드 관리 컨트롤러(BMC)가 특정 중요 위치에서 변경 사항을 감지하면 해당 팬의 속도가 자동으로 조정됩니다. 일부 모델에서는 특정 요구 사항을 수용하기 위해 팬 속도 프로필을 생성하거나 편집할 수 있으므로 사용자는 온도 제어와 전력 효율성 간에 최적의 균형을 이룰 수 있습니다.  용어 사전: 《CPU란? 》 《GPU란? 》 ● 오염 물질로부터 보호하기 위한 적응형 사용자 정의기본적으로 공랭식 서버는 습기 및 먼지와 같은 요소로 인한 손상에 취약합니다. 최신 데이터 센터는 공기 청정기를 설치하고 엄격한 청소 일정을 준수할 수 있지만 공기 중 오염 물질이 들어갈 위험은 항상 존재합니다.업계 리더로서 GIGABYTE는 까다로운 환경에 제품을 적용할 수 있는 노하우를 보유하고 있습니다. 예를 들어, GIGABYTE는 주요 물류 회사의 스마트 유통 센터를 위한 서버 솔루션을 제공했습니다. 인바운드 봉투 및 패키지의 지속적인 흐름으로 인해 서버를 깨끗하게 유지하기가 어려웠습니다. 환경 연구를 통해 종이와 판지의 미세한 섬유가 가장 큰 위협이 된다는 사실을 발견했습니다. GIGABYTE는 기계 설계를 맞춤화하여 IP5X의 침투 보호 등급을 달성하여 장치가 먼지에 강하고 공기 흐름에 도움이 되도록 했습니다. 이것은 팬 위에 더스트 스크린을 추가하고, 외부 버튼 위에 더스트 커버를 추가하고, 기타 독창적인 사용자 정의를 통해 이루어졌습니다.더 알아보기:《성공 사례: 북미 물류 리더를 위한 GIGABYTE의 맞춤형 솔루션》     2. 액체 냉각 직접 액체 냉각(DLC) 또는 직접 칩(D2C) 액체 냉각으로도 알려진 액체 냉각은 열을 분산시키기 위해 냉각제로 채워진 밀봉된 튜브(냉각 루프라고 함)를 사용합니다. 열 에너지는 냉각판을 통해 부품에서 냉각수로 전달됩니다. 그런 다음 열 교환기가 냉각수에서 열을 제거하여 서버로 다시 순환하고 주기를 반복할 수 있도록 합니다. 수냉식 서버는 냉각수로 채워진 밀봉된 냉각 루프를 사용하여 열을 발산합니다. 열 에너지는 냉각판을 통해 부품에서 냉각수로 전달됩니다. 그런 다음 열 교환기가 냉각수에서 열을 제거하여 주기를 반복합니다.   액체 기반 시스템은 열을 분산시키는 데 더 효과적일 뿐만 아니라 방열판이나 팬과 같은 공기 기반 냉각 구성 요소가 필요하지 않습니다. 여분의 공간은 더 많은 CPU 또는 GPU를 추가하는 데 사용할 수 있습니다. 이 때문에 고밀도 서버와 고성능 컴퓨팅(HPC) 솔루션은 하이브리드 "액체 대 공기" 시스템을 통해 열을 방출하든 순수한 "액체-액체" 열을 통해 열을 방출하든 어떤 형태의 액체 냉각을 사용하는 경우가 많습니다. 교환기.용어집:《액체 냉각이란 무엇입니까? 》《HPC란? 》● 액체 대 공기 냉각이 하이브리드 시스템은 인프라를 완전히 정비하지 않고 액체 냉각에 발을 담그고자 하는 공냉식 데이터 센터에 이상적입니다. 수냉식 서버는 표준 서버 랙에 설치됩니다. 냉각 루프는 동일한 랙에 장착된 열 교환기에 연결됩니다. 열은 공랭식 서버가 열을 방출하는 방식과 유사하게 데이터 센터의 "열기 통로"로 방출됩니다. 따라서 동일한 시설에서 공냉식 서버와 수냉식 서버를 혼합하여 사용할 수 있습니다. 열교환기가 일부 랙 공간을 차지하지만 수냉식 서버는 더 많은 프로세서를 수용할 수 있으므로 전체 컴퓨팅 성능이 향상됩니다. 액체 대 공기 냉각 솔루션을 사용하면 열 교환기가 액체 냉각 서버와 동일한 랙에 장착되어 냉각수에서 데이터 센터의 "열기 통로"로 열을 전달합니다. 이를 통해 프로세서를 서로 밀접하게 결합할 수 있으므로 컴퓨팅 성능이 향상됩니다. 또한 공냉식 및 수냉식 서버가 동일한 시설에 공존할 수 있습니다.   ● 액체 대 액체 냉각액체 대 액체 시스템은 액체 대 공기 시스템보다 더 많은 열을 제거할 수 있지만 주의 사항이 있습니다. 기존 액체 냉각 인프라가 있는 데이터 센터에서 사용해야 합니다. 랙에 장착된 열 교환기는 "뜨거운 통로"로 열을 방출하는 대신 시설의 액체 기반 냉각 루프로 에너지를 전달하며, 이는 표준 CRAC보다 열 분산에 더 효율적입니다. 이로 인해 서버 밀도가 기하급수적으로 증가하여 컴퓨팅 성능이 더욱 향상될 수 있습니다. 액체 대 액체 냉각 시스템은 냉각수에서 데이터 센터의 액체 공급 장치로 열을 전달하여 서버를 더욱 조밀하게 함께 포장할 수 있습니다.   GIGABYTE는 선도적인 냉각 솔루션 제공업체인 CoolIT Systems와 협력하여 액체 대 공기 및 액체 대 액체 구성 모두를 위한 고밀도, 공장 설치, 드롭인 준비 액체 냉각 서버를 제공합니다. 모듈식 랙 기반 냉각 솔루션을 통해 랙 밀도, 구성 요소 성능 및 전력 효율성을 크게 높일 수 있습니다. 패시브 냉각판 루프를 사용하여 별도의 펌핑 메커니즘을 제거하면 시스템 고장률이 최소화됩니다. 랙 매니폴드는 설치가 쉽고 랙의 각 측면에서 단일 PDU 공간만 차지합니다. 신뢰할 수 있는 스테인리스 스틸 디자인과 모든 서버 노드의 빠른 유지 관리를 위한 100% 드라이 브레이크 퀵 디스커넥트가 특징입니다. 마지막으로 CDU는 공급 온도와 서버에 대한 냉각수 흐름을 관리하는 지능형 제어 시스템을 제공합니다. 자세히 알아보기:《CoolIT의 액체 냉각 솔루션 알아보기》《공기가 방해가 되지 않을 때는 액체 냉각 서버를 사용해 보십시오》액체 냉각 서버는 향상된 컴퓨팅 성능과 안정성을 제공하며 공간이 제한된 곳에 설치할 수 있습니다. 이로 인해 다양한 분야에서 인기가 있습니다. 예를 들어 에지 데이터 센터는 수냉식 고밀도 서버를 사용하여 더 작은 공간에 더 많은 컴퓨팅 성능을 압축할 수 있습니다. 컴퓨터 프로그램을 사용하여 고주파 거래(HFT)에 참여하는 금융 부문도 빠르고 안정적인 수냉식 서버의 이점을 누릴 수 있습니다.《용어:  에지 컴퓨팅이란? 》액체 냉각이 물결을 일으키고 있는 또 다른 분야는 "그린 컴퓨팅"입니다. GIGABYTE의 고객 중 하나는 독일의 항공우주, 에너지 및 운송 연구를 위한 국가 센터인 독일 항공우주 센터(Deutsches Zentrum für Luft- und Raumfahrt, DLR로 약칭)입니다. 문자 그대로의 로켓 과학자를 포함한 DLR 팀은 우주 탐사 및 기타 연구 프로그램을 지원하기 위해 친환경 데이터 센터 구축에 착수했습니다. 그들은 특히 주변 온도가 40°C이고 공조 장비가 없는 데이터 센터에서 작동할 수 있는 서버를 요청했습니다. GIGABYTE는 H261-Z60의 수냉식 버전을 권장했습니다.  고밀도 서버. 최적화된 전원 공급 장치와 결합된 이 솔루션은 경쟁 제품에 비해 전력 수요를 15%까지 줄일 수 있습니다. 수냉식 서버에 더 많은 프로세서를 수용할 수 있기 때문에 경쟁 제품보다 최대 2배의 최대 컴퓨팅 성능을 제공하면서 설치 공간을 50% 줄였습니다. 수냉식 서버 솔루션은 제한된 공간에서 환경 친화적인 고속 컴퓨팅을 구현하려는 DLR의 목표를 달성했습니다.자세히 알아보기:《성공 사례:  GIGABYTE의 수냉식 서버로 그린 데이터 센터를 구축한 DLR》 《GIGABYTE의 고밀도 서버에 대한 추가 정보  》《GIGABYTE의  GPU 서버 에 대한 추가 정보 》《GIGABYTE의  랙 서버 에 대한 추가 정보》     3. 침수 냉각 침수 냉각은 액체 냉각의 정점입니다. 비전도성 유체 욕조에 서버를 직접 담그면 팬이나 냉각판과 같은 냉각 메커니즘 없이도 열을 제거할 수 있습니다. 열 에너지는 다음 두 가지 방법 중 하나로 액체 밖으로 전달됩니다. 또는 "2단계" 침수 냉각의 경우와 같이 기화 및 응축 주기를 통해.더 알아보기:《용어:  침수 냉각이란 무엇입니까? 》《GIGABYTE의 침수 냉각 솔루션에 대해 알아보십시오》 단상 변형에서는 CPU, GPU 및 기타 구성 요소에서 방출되는 열이 방열판을 통해 액체로 직접 전달됩니다. 따뜻한 액체는 열 교환기(이 경우 CDU(냉각수 분배 장치))로 연결되어 열이 외부 공기 또는 물 루프로 발산됨에 따라 두 번째 전달이 발생합니다. 그런 다음 냉각수는 침수 탱크로 다시 펌핑되어 사이클을 계속합니다. 이름에서 알 수 있듯이 침지 탱크의 유체는 상태가 변하지 않으므로 증발이나 응축이 발생하지 않습니다. 단상 침지 냉각에서 따뜻한 냉각수는 다양한 방법을 통해 냉각수를 냉각시키는 외부 CDU로 펌핑됩니다. 그런 다음 냉각수는 탱크로 다시 펌핑되어 사이클을 계속합니다. 이름에서 알 수 있듯이 냉각수는 프로세스 전체에서 상태를 변경하지 않습니다.   GIGABYTE는 EIA 또는 OCP 표준 서버용 GIGABYTE 자체 침수 탱크와 리프트, 건조 랙 및 냉각수와 같은 주변 장치를 포함하여 단상 침수 냉각을 위한 완벽한 제품 라인을 제공합니다. GIGABYTE의 침수 냉각 서버는 Asperitas, GRC 및 Submer에서 제공하는 솔루션과도 호환됩니다. 일본 최고의 통신 제공업체인 KDDI는 혁신적인 친환경 컴퓨팅 에지 데이터 센터에서 GIGABYTE 서버와 함께 단상 침수 냉각을 사용합니다.자세히 알아보기:《GIGABYTE의 단상 침수 냉각 솔루션 알아보기》《성공 사례:  일본 통신 선두업체 KDDI, GIGABYTE와 함께 침수 냉각 소형 데이터 센터 발명》GIGABYTE는 또한 끓는점이 매우 낮은 비전도성 및 무독성 유체 욕조로 부분적으로 채워진 밀폐된 탱크에 서버를 담그는 2단계 침수 냉각 솔루션을 제공합니다. 칩의 열로 인해 수조가 자연적으로 저온 기화되어 액체 밖으로 열이 전달됩니다. 증기는 탱크 상단으로 올라가고 응축기 코일과 같은 열 교환기에 의해 냉각되어 액체 형태로 되돌아갑니다. 유체는 다시 수조로 흘러 재사용됩니다. 2단계 침수 냉각은 끓는점이 매우 낮은 비전도성 액체 욕조에 서버를 직접 배치합니다. 구성 요소의 열로 인해 유체가 기화되고 열이 분산됩니다. 그런 다음 증기는 코일 응축기에 의해 냉각되고 액체 형태로 되돌아가 재사용을 위해 수조로 다시 흐릅니다.   2단계 침수 냉각에는 많은 장점이 있습니다. 하나는 추가 에너지 소비 없이 탱크 내부 순환이 자연스럽게 이루어지므로 전력 사용 효율성(PUE)이 향상됩니다. 일부 추산에 따르면 공기 냉각을 2단계 침수 냉각으로 교체하면 에너지를 최대 90%까지 절약할 수 있습니다. 또한 펌프 및 제트와 같은 부품을 제거하면 유지보수가 줄어들고 장비 고장 가능성이 낮아집니다. 운영 비용은 낮추면서 시스템 안정성은 향상됩니다. 성공 사례에는 PUE를 1.08 미만으로 낮추고 데이터 센터의 총 전력 소비를 최대 30%까지 줄일 수 있는 "그린 HPC 데이터 센터"를 구축하기 위해 GIGABYTE의 2단계 침수 냉각 솔루션을 선택한 세계 최고의 반도체 대기업이 포함됩니다. 더 알아보기:《용어:  PUE란? 》《Success Story:  Semiconductor Giant, GIGABYTE의 Two-Phase Immersion Cooling Solution 선택》단상이든 2상 침수 냉각이든 관계없이 GIGABYTE 서버는 모듈식으로 설계되어 공랭식 서버를 침수용으로 수정할 수 있습니다. 냉각. 이러한 솔루션에 사용되는 서버는 브래킷으로 설치되어 수직 설치 및 제거를 지원하여 관리가 용이합니다. 침수 탱크는 또한 독립형이므로 서비스가 덜 필요합니다. 여기에는 이상적인 작동 온도를 유지하는 센서와 더 큰 작동 안정성을 제공하는 중복 CDU가 장착되어 있습니다.     요약: 적합한 냉각 솔루션을 선택하는 데 도움이 되는 3단계 서버의 온도를 제어하는 세 가지 방법에 대해 학습한 후 문제의 핵심에 도달했습니다. 자신에게 적합한 냉각 솔루션을 선택하는 방법은 무엇입니까?문제의 사실은 두 고객이 똑같지 않다는 것입니다. 전문가 상담 및 맞춤형 솔루션에 대한 특정 요구 사항에 대해서는 영업 담당자에게 문의하는 것이 좋습니다.그러나 필요한 것이 무엇인지 더 명확하게 파악하기 위해 스스로에게 물어볼 수 있는 세 가지 간단한 질문이 있습니다. 이러한 질문은 보다 실현 가능한 옵션에 집중하는 데 도움이 될 뿐만 아니라 일반적으로 데이터 센터, 특히 백본 역할을 하는 냉각 시스템에 대한 장기 계획을 보다 쉽게 수립할 수 있도록 합니다.     1. 에너지 소비 및 방열 냉각 솔루션의 효율성은 열 발산의 킬로와트(kW) 단위로 측정됩니다. 대략적으로 말하면 표준 서버 랙을 비교 기준으로 사용하기 위해 공기 냉각은 20kW의 열 분산을 제공합니다. 액체 냉각은 60kW의 방열을 제공합니다. 침수 냉각은 200kW의 방열을 제공합니다.즉, 에너지 수요에 따라 가장 적합한 냉각 솔루션이 결정됩니다. 서버에서 어떤 프로세서를 사용할 것인지, 얼마나 많은 전력을 소비할 것인지에 대한 명확한 그림이 있어야 합니다. 일반적으로 HPC 또는 병렬 컴퓨팅에 사용되는 프로세서는 더 많은 에너지를 소비하고 더 많은 열을 방출합니다. 이것이 서버가 대부분의 시간 동안 수행하는 작업이라면 액체 냉각 또는 침수 냉각에 투자하는 것이 합리적입니다.《용어:  병렬 컴퓨팅이란 무엇입니까? 》     2. 공간 및 기타 리소스의 가용성 고려해야 할 또 다른 요소는 사용 가능한 공간의 양입니다. 공기 냉각은 좋은 공기 흐름에 의존하기 때문에 서버를 너무 꽉 조여서는 안 됩니다. 이러한 제한은 에지 컴퓨팅의 구현에 영향을 미칠 수 있으며, 이것이 액체 및 침수 냉각 방법이 인기를 얻고 있는 이유입니다.PUE는 액체 또는 침수 냉각을 채택하여 크게 개선될 수 있다고 명시되어 있습니다. 그러나 물 사용 효율(WUE)도 평가해야 합니다. 우수한 WUE와 안정적인 물 공급은 이러한 시스템으로 냉각되는 데이터 센터의 원활한 운영을 보장하는 데 도움이 될 수 있습니다.     3. 인프라 액체 대 액체 및 침수 냉각 솔루션은 시설의 액체 공급 및 냉각 루프와 함께 사용해야 합니다. 즉, 이러한 솔루션을 위해 데이터 센터를 구축해야 합니다. 이것은 보다 발전된 형태의 냉각을 채택하는 데 있어 가장 큰 장애물 중 하나입니다.공냉식 데이터 센터에 수냉식 서버를 배치하려는 경우 액체 대 공기 시스템을 사용하는 것이 좋습니다. 그러나 액체 냉각과 침수 냉각이 유행하고 있으며 성공적인 데이터 센터는 확장 가능해야 한다는 점을 명심하십시오. 사용자의 IT 요구와 함께 성장해야 하며 최신 기술 개선 사항을 채택해야 합니다. 액체 기반 인프라는 보다 발전된 냉각 방법을 지원할 수 있으며 적은 공간을 차지하면서 상당한 양의 컴퓨팅 성능을 자랑하는 서버를 수용할 수 있습니다. 이러한 특성을 갖춘 데이터 센터는 계속해서 증가하는 데이터의 바다를 따라잡기 위해 더 잘 준비될 것입니다. 《용어집:  확장성이란? 》궁극적으로 공기 냉각, 액체 냉각 또는 침수 냉각을 사용하든 GIGABYTE는 필요한 솔루션을 제공합니다.

상세보기

[AAEON] AAEON AI 기술로 스테이션 감시 시스템 발전

2023.07.12

[AAEON] AAEON AI 기술로 스테이션 감시 시스템 발전

전 세계 도시에서 교통 허브는 점점 더 바빠지고 있으며 많은 터미널은 이제 설계된 것보다 훨씬 더 많은 사람들을 처리하고 있습니다. 대형 역과 소형 역의 승객 수는 보안 직원이 적절하게 관리할 수 있는 수준을 훨씬 초과하는 경우가 많으며, 이로 인해 여러 가지 문제가 발생합니다. 당국은 티켓 없이 열차에 탑승하는 사람들을 막을 수 있어야 하며, 더 중요한 것은 의심스러운 행동을 하는 개인을 찾아내야 한다는 것입니다. 기차역은 매우 바쁘고 중요한 장소이기 때문에 정기적으로 보안 위협에 직면하고 있으며 직원은 비정상적인 행동이 발생하는 즉시 이를 인지해야 합니다. 기존의 보안 카메라 시스템은 작업자가 여러 카메라 피드를 보고 위험하거나 사기 행위를 감지하는 데 의존합니다. 승객 수가 증가함에 따라 점점 더 효과가 떨어지는 불완전한 솔루션입니다. 보다 완전한 답변을 만들기 위해 보안 팀은 AI 기술을 활용해야 합니다.     효과적인 AI 보안 시스템에는 다음이 필요합니다.   강력한 컴퓨팅 시스템 독립적으로 구성 가능한 여러 대의 IP 카메라 행동 분석 및 가상 울타리 기능을 갖춘 고급 AI 소프트웨어 사용자 친화적인 영상 관리 시스템     AAEON의 솔루션 AAEON은 다양한 강력한 NVR을 보유하고 있으며, 이 프로젝트를 위해 AAEON은 개별 LAN 칩과 5600세대 Intel® Core™ 프로세서가 있는 7개의 스마트 PoE 포트로 인해 VPC-<>S를 제공했습니다. AAEON은 또한 AI 감시 소프트웨어 회사 및 비디오 관리 소프트웨어 회사와 협력하여 하드웨어와 소프트웨어를 완전한 감시 솔루션으로 통합했습니다.     광범위한 비전 AAEON은 이 AI 애플리케이션에 최대 5600개의 네트워크 또는 클라우드 연결 IP 카메라를 사용할 것을 권장합니다. VPC-<>S의 스마트 PoE 기능으로 인해 이러한 각 카메라를 독립적으로 제어하고 재부팅할 수 있습니다. 엣지에서 운영 VPC-5600S에는 Intel® Movidius™ Myriad™ 기술을 사용하여 에지 컴퓨팅을 가능하게 하는 미니 PCIe 모듈인 AAEON의 AI Core X를 장착할 수 있습니다. 초소형 AI 프로세싱 카드는 시스템에 총 <>대의 카메라를 추가로 관리할 수 있습니다. 이 카메라의 피드는 에지에서 분석되기 때문에 네트워크 또는 클라우드에 대한 NVR의 연결이 일시적으로 끊어지더라도 사용자는 보안 통찰력과 경고를 받게 됩니다. 따라서 민감한 영역을 모니터링하는 데 탁월한 옵션이 될 것입니다. AI 분석 • 가상 울타리 – AI 소프트웨어를 사용하여 사용자는 지정된 영역을 통과하거나 가상 장벽을 넘는 모든 사람을 모니터링하는 가상 울타리를 설정할 수 있습니다. 입구/출구 전용 통로에서 소프트웨어는 누군가가 잘못된 방향으로 장벽을 넘을 경우에만 경고를 보냅니다. 보안 경고가 불필요하게 전송되지 않도록 소프트웨어는 제한된 방향을 감지하여 가상 울타리 근처를 걷는 개별 승객을 모니터링할 수 있습니다. 누군가 실수로 출구 전용 통로에 들어갔다가 빠르게 방향을 바꾸면 경고가 전송되지 않습니다. • 행동 분석 – AI 회사는 또한 위험한 행동의 징후를 감지하도록 프로그램을 훈련했으며 의심스러운 것을 발견하면 소프트웨어가 경고를 보냅니다. 그런 다음 작업자는 최선의 조치를 결정할 수 있습니다. 비디오 관리 비디오 피드와 보안 경고를 포함한 AI 분석 결과는 비디오 관리 소프트웨어로 전송되어 사용자 친화적인 GUI를 통해 작업자에게 전달됩니다.   영향 AAEON의 통합 솔루션은 보안 담당자에게 점점 더 혼잡해지는 공공 장소를 관리하는 데 필요한 도구를 제공합니다. 잠재적으로 사기 또는 위험한 행동을 더 빨리 발견하고 처리할 수 있으며, 경찰관이 실제로 필요한 곳에 배치될 수 있으며, 기차역은 승객에게 더 안전한 장소가 될 수 있습니다.   VPC-5600S 정보 VPC-5600S은(는) 개별 LAN 포트와 함께 최대 3개의 PoE 포트를 장착할 수 있는 시장을 선도하는 네트워크 비디오 레코더입니다. 또한 0개의 USB14.<> 포트와 <>개의 LAN 포트가 있어 최대 <>대의 고급 감시 카메라를 지원할 수 있습니다. 스마트 PoE 기능은 사용자의 유지 관리에도 도움이 됩니다. 결함이 있는 카메라 또는 센서를 원격으로 확인하고 재부팅할 수 있습니다. 주변 장치가 완전히 작동을 멈췄더라도 나머지 네트워크는 계속 원활하게 실행됩니다. 이 견고하고 팬이 없는 장치는 -40oC에서 85oC의 작동 온도 범위와 10V에서 36V의 DC 입력 범위를 보장합니다. 2개의 5.<>인치 HDD/SSD 베이, mSATA 슬롯 및 장착하기 쉬운 확장 모듈을 갖추고 있어 사용자가 디스플레이 또는 COM 포트를 빠르고 저렴하게 추가할 수 있습니다.

상세보기

[AAEON] 하루 만에 자율 모바일 로봇 구축

2023.07.12

[AAEON] 하루 만에 자율 모바일 로봇 구축

자율 이동 로봇(AMR)은 공장 자동화에서 가장 높은 성장 기회를 제공합니다.  이 기계 중 4만 대 이상이 2025년까지 창고에서 작동할 것으로 예상됩니다. 그리고 그것은 이 영리한 봇을 위한 하나의 응용 프로그램일 뿐입니다. AMR은 또한 청소 업무를 수행하고, 특정 품목을 찾아 특정 장소로 운송하고, 거친 지형을 탐험하고, 인간과 상호 작용할 수 있습니다. 그러나 로봇 혁명은 인간의 도움 없이는 일어나지 않을 것입니다. AMR을 구축하려면 AI, 머신 비전 및 로봇 공학의 복잡한 분야에 대한 전문 지식이 필요합니다. 이러한 전문 지식을 개발하는 데는 많은 시간과 비용을 투자해야 할 수도 있고, 엔지니어가 기성 기술을 사용하여 지름길을 택할 수도 있습니다. 하루 만에 만나는 머신 비전 한 가지 좋은 예가 UP의 RoboMaker Pro Kit입니다. 그림 1에서 볼 수 있듯이 이 제품은 다음과 함께 바로 사용할 수 있는 AMR 섀시를 제공합니다. 435D 비전을 위한 Intel® RealSense™ D3 카메라 비전 프로세싱을 위한 Intel® Movidius™ Myriad™ X VPU ROS2 및 Ubuntu 16.04 운영 체제 AWS RoboMaker 및 인텔® OpenVINO™ 도구 키트 지원 배전, 서보 모터, 배터리 및 Wi-Fi   "개발자는 키트를 사용하여 즉시 엔드 투 엔드 솔루션 데모 또는 PoC를 구축할 수 있습니다." —@danielecleri, @aaeon "키트를 사용하여 개발자는 즉시 엔드 투 엔드 솔루션 데모 또는 개념 증명(PoC)을 구축할 수 있습니다"라고 회사의 AI 및 IoT 소프트웨어 설계자인 Daniele Cleri는 말했습니다. Cleri에 따르면 개발자는 하루 만에 머신 비전 애플리케이션을 만들고 며칠 만에 작동하는 데모를 제작할 수 있습니다. 그림 1. UP RoboMaker Pro 키트(왼쪽)를 사용하여 프로덕션으로 빠르게 확장할 수 있는 개념 증명(가운데)을 구축할 수 있습니다(오른쪽). (출처: UP) 이 빠른 개발 주기의 핵심은 키트에서 AWS RoboMaker를 사용한다는 것입니다. Cleri는 AMR의 핵심 요구 사항은 3D로 보고 자율적인 결정을 내릴 수 있는 능력이라고 지적했습니다. 그러나 올바른 도구가 없으면 이러한 알고리즘을 테스트하고 개발하는 프로세스가 매우 느려질 수 있습니다. AWS RoboMaker는 물리적 테스트를 대체하는 시뮬레이션 환경을 제공하여 이 문제를 해결합니다. 장애물 회피 및 영역 매핑과 같은 작업을 RoboMaker에서 시뮬레이션하여 설계 아이디어를 빠르게 반복할 수 있습니다. 최적화되면 알고리즘을 로봇으로 이식할 수 있습니다. 이 직접적인 시뮬레이션-현실 워크플로는 RoboMaker 알고리즘을 키트에서 사용할 수 있는 코드로 변환하는 Intel OpenVINO Toolkit에 의해 활성화됩니다. 인텔®과 AWS는 기술 간의 원활한 통합을 보장하기 위해 협력했습니다. AWS 플랫폼의 또 다른 이점은 AWS IoT Greengrass를 사용하여 플릿 관리를 수행할 수 있다는 것입니다. 이는 수백 또는 수천 대의 로봇에 대한 제어 및 동기화를 단순화하고 수명 주기 관리에 도움이 됩니다. 개발을 더욱 간소화하기 위해 이 키트는 다양한 샘플 애플리케이션과 함께 제공됩니다. 여기에는 비전, 추론, 탐색 및 컴퓨팅이 포함됩니다(그림 2). 그림 2. 이 키트는 다양한 응용 프로그램과 함께 제공됩니다. (출처: UP) 개발 중인 다양한 사용 사례 창고 로봇을 개발하는 것 외에도 AMR은 OpenVINO를 사용하여 보안과 같은 다른 작업을 수행하도록 훈련할 수 있습니다. "추론 응용 프로그램은 로봇이 정의 된 공간을 돌아 다니며 의심스러운 활동을 나타낼 수있는 패턴을 관찰하도록 가르치는 데 사용할 수 있습니다."라고 Cleri는 말합니다. 이러한 동작에 대한 대응을 자동화하거나 보안 담당자에게 전달하여 검토하고 조치를 취할 수 있습니다. 현재 UP Squared RoboMaker Kit 및 Cogniteam 소프트웨어를 중심으로 한 개발의 대부분은 Ben-Gurion University 및 Bar-Ilan University를 포함한 대학과 Mitsubishi Research Lab과 같은 기관에서 이루어지고 있습니다. "우리는 인텔® 및 기타 조직과 긴밀한 협력을 할 수 있어 다행입니다"라고 Cleri는 말했습니다.

상세보기

[AAEON] 지능형 가로등

2023.07.12

[AAEON] 지능형 가로등

    밝은 가로등은 도로 안전을 개선하고 범죄를 줄이는 데 도움이 되며 기업과 지역 사회 모두에게 도시를 더욱 활기차고 매력적인 장소로 만듭니다. 그러나 전통적인 가로등은 공공 재정을 크게 낭비하고 기후 변화의 주요 원인입니다. 비용을 절감하고 에너지 효율성에 대한 증가하는 대중의 요구를 충족하기 위해 전 세계 도시에서는 오래된 가로등을 저전력 LED로 교체하는 과정에 있습니다. 그러나 이 업그레이드가 21세기 조명 시스템의 끝이 될 수는 없습니다. 현대 도시가 잠들지 않더라도 그 안에 사는 사람들은 잠을 자고 밤새도록 같은 강도로 빛날 필요가 없습니다. 미래의 스마트 시티에서는 공공 조명이 언제, 얼마나 밝게 빛나는지 관리할 수 있는 방법이 필요합니다. 센서 및 지능형 관리 시스템 네트워크를 통해 AAEON 지능형 조명 제어는 실시간 요인에 대응하여 시스템 전체, 지정된 그룹 또는 개별 수준에서 조명을 어둡게 하거나 켜고 끌 수 있습니다.이 기술을 통해 우리는 바로 지금 바로 미래의 스마트 시티를 형성할 수 있습니다.     엣지 컴퓨팅 인텔 비전 제품으로 구동되는 AAEON Atlas*는 스마트 조명, 환경 모니터링 및 비디오 센서의 데이터 스트림을 통합하는 강력한 에지 컴퓨팅 노드입니다. Atlas는 엣지에서 작동하여 도시 관리자가 수많은 새로운 애플리케이션을 지원하는 연결된 데이터 허브를 만들 수 있도록 합니다. 예를 들어, Atlas 에지 노드가 카메라, 네트워크 비디오 레코더(NVR) 및 관리 시스템과 함께 배포되면 도시 전역의 주차 애플리케이션에 전력을 공급할 수 있습니다. 자동차 운전자는 거스름돈을 구하거나 미터기를 지불할 필요 없이 도시 거리에 주차할 수 있으며, 가로등의 인근 스마트 카메라는 컴퓨터 비전을 사용하여 번호판과 같은 이미지를 캡처 및 분류하고 자동차 부서 데이터베이스에 연결된 게이트웨이 및 클라우드 기반 관리 시스템을 통해 정확한 주차 시간에 대해 소유자에게 직접 요금을 청구할 수 있습니다. 제품 개요 세부 정보 다운로드 연결된 가로등 핵심 경쟁력 (1) 고급 컨트롤 비효율적인 타이머는 유연한 개별 제어로 대체할 수 있습니다. (2) 에너지 효율 불필요한 조명을 어둡게 하고 결함이 있는 장치에서 전력을 다른 곳으로 전환하여 에너지 소비를 줄일 수 있습니다 (3) 유지보수 개선 실시간 오류 보고를 통해 유지 보수 작업 속도를 높일 수 있습니다. (4) 재정적으로 신중함 미리 준비된 LED 업그레이드의 일부로 컨트롤을 설치하는 것은 좋은 비즈니스 의미가 있습니다 (5) IoT 플랫폼 추가 센서 및 스마트 시티 인프라 애플리케이션(예: 스마트 주차, 스마트 폐기물 및 공기 센서)은 나중에 쉽게 추가할 수 있습니다 Edge-X, 중앙 관리 시스템(CMS) Edge-X는 현장의 규모와 시장 수요에 따라 세 가지 아키텍처, 단일 조명 제어 패널, 루프 모니터링 패널 및 루프 제어 패널을 개발한 새로운 클라우드 가로등 모니터링 및 관리 솔루션입니다. Edge-X는 동시에 100,000개 이상의 가로등을 관리합니다. 전력선 및 무선 네트워크 전송을 모두 지원하며 시중에서 판매되는 모든 램프 캡을 통합합니다. 호환성이 높고 확장 가능한 플랫폼입니다. Edge-X를 사용하면 클라우드 플랫폼을 통해 거리의 전체 정보를 볼 수 있으며 비정상적인 가로등이 즉시 반환되는 경우 정확한 진단 엔진 세트를 보유하여 관리자가 파견 수리 속도를 높이고 언제든지 가로등에 쉽게 액세스하여 통행인 만족도와 도로 안전을 향상시킬 수 있습니다.

상세보기

[AAEON] 번호판 인식: AI@Edge 솔루션을 통한 스마트 주차 운전

2023.07.12

[AAEON] 번호판 인식: AI@Edge 솔루션을 통한 스마트 주차 운전

소개 AI의 지속적인 개발 덕분에 엣지 컴퓨팅, 광범위한 애플리케이션을 위한 솔루션을 제공하기 위해 많은 새로운 AI 시스템이 개발되고 있습니다. AI Edge 사용에 많은 관심을 보인 응용 프로그램 중 하나는 차고 또는 밀폐된 주차장에서 스마트 주차 시스템을 사용하는 것입니다. 스마트 주차는 번호판 인식 기술을 활용하여 차량이 들어올 때 체크인하고 차량이 떠날 때 체크아웃하는 방식으로 작동합니다. 일반적으로 시스템은 차량이 주차된 시간도 결정하고 주차 요금을 자동으로 계산합니다. 스마트 주차 시스템은 원래 머신 비전 기술을 사용하여 개발되었습니다. 그러나 머신 비전 기반 시스템에는 몇 가지 제한 사항이 있습니다. 번호판을 인식하려면 자동차가 올바른 지점과 각도로 향해야 하므로 운전자에게 좌절감을 줄 수 있습니다. 머신 비전 시스템은 어두운 조명 조건이나 안개 또는 비와 같은 기상 조건에서 제대로 작동하지 않습니다. 머신 비전 시스템은 특수 또는 비표준 발행 번호판에도 문제가 있을 수 있습니다. 머신 비전 시스템의 한계를 극복하기 위해 한 회사는 주요 소매 체인을 위한 AI Edge 기반 솔루션을 개발했습니다. 그들은 시스템을 최대한으로 끌어올릴 수 있는 하드웨어 플랫폼을 제공하기 위해 AAEON으로 눈을 돌렸습니다.   도전 개발자는 AI Edge 스마트 주차 솔루션을 개발하는 데 몇 가지 문제에 직면했습니다. 시스템은 클라우드에 거의 의존하지 않고 엣지에서 작동해야 하며, 실외 임베디드 환경에서 작동할 수 있어야 하며, 여러 아메라 및 센서에 대한 지원도 제공해야 합니다.   엣지 시스템 고객에게 신속한 서비스를 제공하려면 AI 시스템이 엣지에서 작동할 수 있어야 합니다. 클라우드 기반 시스템에 의존하면 시스템이 중앙 서버와 통신하므로 서비스 속도가 느려질 수 있습니다. 주차장과 차고에는 네트워크 연결이 일관되지 않아 클라우드 기반 시스템을 방해하는 경우가 많습니다. 실외 조건 이 시스템은 고객이 있는 주차장이나 차고에 배치할 수 있어야 합니다. 콤팩트한 시스템은 유연성을 제공할 수 있지만 가장 중요한 것은 시스템이 다양한 조건에서 작동할 수 있어야 하며 먼지나 자동차 배기 가스의 영향을 받지 않아야 한다는 것입니다. I/O 지원 AI 애플리케이션은 자동차가 들어오고 나갈 때 번호판을 읽기 위해 여러 카메라 입력이 필요합니다. 주차 게이트 및 지불 키오스크와 같은 컨트롤러와의 추가 연결은 시스템의 유용성과 효율성을 높이는 데 도움이 됩니다.     용액 AAEON은 개발자와 긴밀히 협력하여 수상 경력에 빛나는 BOXER-8120AI AI@Edge 팬리스 임베디드 시스템이 최고의 솔루션이라고 결정했습니다.   NVIDIA Edge 솔루션 BOXER-8100AI AI@Edge 시스템 제품군은 모두 강력한 NVIDIA Jetson TX2를 탑재하고 있습니다. BOXER-8120AI는 헥사코어 SoC, NVIDIA Pascal 256 CUDA 코어 GPU, 8GB 메모리 및 32GB eMMC 스토리지를 통해 엣지에서 AI를 구동하는 데 필요한 성능을 제공합니다.   임베디드 디자인 두께가 30mm에 불과한 BOXER-8120AI는 필요한 곳 어디에나 잘 어울립니다. 팬이 없는 설계로 작동은 먼지나 배기가스의 영향을 받지 않습니다. BOXER-8120AI는 -20°C에서 50°C(-4°F에서 122°F)의 저온에서 작동하도록 설계되었습니다.   연결을 위한 설계 BOXER-8120AI에는 LAN 카메라에 완벽하게 연결할 수 있는 <>개의 기가비트 이더넷 포트가 있습니다. 또한 HDMI를 포함한 추가 I/O 포트가 있어 보안 직원에게 쇼핑객을 안전하게 보호하는 데 도움이 되는 또 다른 도구를 제공합니다.     영향 BOXER-8120AI를 통해 개발자는 고객의 스마트 주차장에 전력을 공급할 수 있는 AI@Edge 번호판 인식 솔루션을 제공할 수 있었습니다. BOXER-8120AI의 성능 덕분에 개발자의 AI 시스템은 머신 비전 기반 솔루션 이상의 기능을 제공할 수 있습니다. 이 시스템은 다양한 각도, 다양한 조명 조건, 안개, 비 또는 기타 악천후 조건에서 번호판을 인식하고 읽을 수 있습니다. 보다 지능적인 스마트 주차 솔루션을 갖춘 개발자의 고객은 머신 비전 기반 주차 시스템으로 인해 종종 발생하는 좌절감 없이 고객을 위해 더 쉽고 빠르게 주차할 수 있는 시스템을 갖게 되어 기뻤습니다. AI Edge 번호판 인식 및 수상 경력에 빛나는 BOXER-8120AI로 구동되는 스마트 주차는 쇼핑객과 매장 소유자의 경험을 개선하는 데 도움이 됩니다.       제품 수상 경력에 빛나는 BOXER-8120AI AI@Edge 임베디드 팬리스 시스템은 AAEON의 임베디드 AI 솔루션 BOXER-8100AI 제품군의 일부입니다. BOXER-8120AI는 헥사코어 NVIDIA Jetson TX2를 탑재하여 256개의 CUDA 코어와 Tensorflow, Caffe2 및 Mxnet을 포함한 다양한 AI 프레임워크와 사용자가 개발한 AI 추론 소프트웨어를 지원합니다. BOXER-8120AI에는 IP 카메라를 지원하는 211개의 Intel LAN(i8120) 포트가 있으며 방진 사양, 넓은 작동 온도 범위, 광범위한 전원 입력 및 알루미늄 섀시와 같은 일련의 견고한 설계 기능을 자랑합니다. BOXER-<>AI는 컴팩트하고 비용 효율적인 디자인과 강력한 처리 능력을 갖추고 있어 AI 플랫폼을 어디에나 배치할 수 있습니다. AAEON 제조업체 서비스는 구성, 사용자 정의 및 OEM/ODM 지원을 제공하여 AI 애플리케이션을 빠르고 효과적으로 제공할 수 있도록 합니다. I/O 포트를 변경하거나 BIOS를 재구성하는 등 AAEON은 헌신적인 하드웨어 솔루션 파트너이며 프로젝트의 특정 요구 사항을 충족합니다.

상세보기

[AAEON] 자동 광학 검사의 AI 비전

2023.07.12

[AAEON] 자동 광학 검사의 AI 비전

소개 모든 종류의 제조에서 중요한 단계는 검사 및 결함 감지입니다. 인쇄 회로 기판(PCB) 제조에서 작업은 머신 비전 컨트롤러와 자동 광학 검사 또는 줄여서 AOI로 알려진 응용 프로그램을 사용하여 수행됩니다. 그러나 복잡성이 증가하고 소형 구성 요소 및 보드가 사용됨에 따라 머신 비전 시스템이 작업을 따라잡기가 점점 더 어려워지고 있습니다. 머신 비전은 실제로 지능적이지 않지만 일종의 AI로 생각되는 경우가 많습니다. 머신 비전은 모든 단계와 조건을 시스템에 프로그래밍해야 하며, 이를 하드 코딩된 인텔리전스라고 합니다. PCB가 복잡해짐에 따라 프로그램이 더 복잡해지고 부피가 커져 오류가 발생할 수 있습니다. 육안 검사를 통해 PCB에 결함이나 결함이 있을 수 있는 모든 방법을 프로그래밍하는 것은 비현실적이며 거의 불가능합니다. 한 회사는 AOI를 구동하는 AI 솔루션을 만들고 있습니다. 그들의 솔루션은 AI가 결함과 결함을 식별하도록 훈련될 수 있으므로 설정 및 배포 시간을 단축합니다. AAEON은 AOI 애플리케이션 AI를 구동하는 하드웨어를 구축하고 개발하는 데 도움을 주기 위해 긴밀히 협력해 왔습니다. 도전 AOI는 집약적이고 까다로운 응용 프로그램입니다. 고성능 소프트웨어뿐만 아니라 똑같이 강력하고 고성능의 시스템이 필요합니다. 이로 인해 시스템 개발에 몇 가지 문제가 발생합니다. 높은 처리 수요 이미지와 신호를 빠르고 정확하게 처리하기 위해 AOI는 높은 컴퓨팅 성능과 프로세서 성능을 갖춘 시스템이 필요합니다. 시각 및 AI 처리 AOI의 요구 사항을 완전히 충족하려면 시스템이 그래픽/GPU 카드 또는 신경 가속기 모듈과 같은 확장 카드를 지원하여 이미지를 처리하고 AI 시스템을 구동해야 합니다. 카메라 및 센서 기계마다 카메라와 센서의 수에서 유형에 이르기까지 구성과 구성 요소가 다릅니다. AI 기반 AOI 솔루션의 잠재력을 최대한 활용하려면 시스템이 다양한 I/O 연결을 지원해야 합니다. 용액 AAEON은 개발자와 긴밀히 협력했으며 제조업체 서비스를 통해 작업에 가장 적합한 솔루션을 제공했습니다. AI Core XP6841이 탑재된 BOXER-8M은 AI 기반 AOI를 위한 최고의 솔루션으로 선택되었습니다. 인텔 프로세서 BOXER-6841M은 6세대 및 7세대 Intel Core 프로세서와 Intel Xeon 서버급 프로세서를 지원합니다. 최대 32GB의 메모리와 함께 제공되는 BOXER-6841M은 가장 까다로운 애플리케이션에 필요한 고성능 프로세싱을 제공합니다. 확장성 BOXER-6841M은 PCIe[x16], PCIe[x8] 및 PCIe[x1]를 포함한 다양한 확장 베이 구성을 제공합니다. 이를 통해 사용자는 8개의 Intel Movidius Myriad X VPU를 특징으로 하는 AI Core XP<> 모듈과 같은 엣지 컴퓨팅 애플리케이션을 구동하는 데 도움이 되는 확장 카드를 추가할 수 있습니다. 인상적인 I/O BOXER-6841M은 임베디드 산업용 애플리케이션용으로 설계되었으며 모든 프로젝트에 쉽게 통합할 수 있는 다양한 I/O 포트가 함께 제공됩니다. 3개의 LAN 포트와 0개의 USB <>.<> 포트를 통해 AOI 및 기타 애플리케이션에 사용하기 위해 다양한 카메라 및 센서에 연결할 수 있습니다. 영향 강력한 BOXER-6841M을 통해 개발자는 애플리케이션을 최대한 활용하여 재구성할 필요 없이 여러 제품 라인을 검사할 수 있는 AOI 시스템을 만들 수 있으며, 신제품에 대해 신속하게 교육을 받거나 이전에 알려지지 않은 결함을 식별할 수 있습니다. 이 시스템은 PCB 제조업체가 기존의 머신 비전 기반 AOI보다 더 높은 정확도와 더 적은 실수 및 오탐을 통해 비용을 절감하고 생산성을 높이는 데 도움이 될 것이며 이러한 제조업체의 고객 만족도도 높일 수 있습니다. 제품 AAEON의 BOXER-6841M 시스템은 가장 까다로운 머신 비전 및 AI Edge 애플리케이션을 위해 제작된 강력한 임베디드 산업용 PC입니다. 7세대 인텔 코어 및 인텔 제온 서버급 프로세서를 지원하는 BOXER-6841M은 최대 32GB의 메모리를 제공합니다. BOXER-6841M 제품군은 PCIe[x16], PCIe[x8] 및 PCIe[x1]를 포함한 확장 옵션의 조합을 제공합니다. 이를 통해 머신 비전 애플리케이션용 프레임 그래버 카드로 확장하거나 NVIDIA GeForce GTX 1080 또는 AAEON의 AI Core XP8과 같은 카드로 AI 가속을 수행할 수 있습니다. AI Core XP8은 4개의 Intel Movidius Myriad X 모듈을 탑재한 PCIe[x840] 확장 카드입니다. 이 혁신적인 모듈은 최대 560fps(일반 8fps)의 속도를 제공하여 가장 까다로운 AI 애플리케이션을 구동하는 데 도움이 됩니다. AI 추론을 AI Core XP8로 오프로드함으로써 시스템 프로세서가 다른 동시 작업을 처리할 수 있도록 하여 전체 시스템 성능을 향상시킵니다. AI Core XP<>은 Intel OpenVINO 툴킷 및 TensorFlow와 같은 AI 프레임워크와 호환됩니다.

상세보기

[AAEON] 얼굴 인식에 엣지 도입

2023.07.12

[AAEON] 얼굴 인식에 엣지 도입

소개 전 세계의 도시와 커뮤니티는 많은 요구 사항에 대한 솔루션으로 AI 엣지 컴퓨팅 애플리케이션을 사용하는 방향으로 전환하고 있습니다. 스마트 시티 및 스마트 커뮤니티 이니셔티브에서 지능형 빌딩 관리 및 스마트 보안에 이르기까지 이러한 도시, 커뮤니티 및 건물에 거주하는 사람들의 삶의 질과 웰빙을 개선하는 데 도움이 되는 많은 AI 에지 기반 애플리케이션이 있습니다. AI가 배포되는 한 가지 방법은 얼굴 인식 및 행동 분석을 사용하여 이러한 커뮤니티의 안전과 보안을 개선하는 것입니다. 얼굴 인식은 관심 있는 사람을 쉽게 식별하고 추적하는 데 도움이 될 수 있으며, 행동 분석은 가상 울타리를 사용하고 의심스러운 행동을 식별하여 보안을 향상시킵니다. 이러한 기술은 누락 및 분실물을 추적하고 찾는 데에도 사용할 수 있습니다. 이러한 AI Edge 기술의 이점은 시민들이 지역 사회와 가정에서 더 안전하다고 느끼게 함으로써 더 높은 삶의 질을 만드는 데 도움이 됩니다. 중국의 한 회사는 AI Edge 및 Smart City 솔루션의 배포를 주도하고 있으며 고급 안면 인식 애플리케이션을 구동하기 위한 새로운 엣지 컴퓨팅 플랫폼 개발을 시작했습니다. 이 안면 인식 시스템은 스마트 시티에 대한 관심 인물 추적, 스마트 빌딩의 지능형 보안 및 액세스 제어, 스마트 커뮤니티 역할에서 거주자 및 비거주자 식별과 같은 다양한 AI 애플리케이션에 배포되도록 설계되었습니다. 도전 고유한 요구 사항을 가진 강력하고 새로운 AI Edge 시스템을 통해 이 회사는 임베디드 AI 에지 플랫폼이 되기 위한 요구 사항뿐만 아니라 AI 시스템에 필요한 특정 요구 사항과 지원을 충족할 수 있는 임베디드 하드웨어 솔루션이 필요했습니다. 이러한 과제와 요구 사항은 AI 엣지 소프트웨어의 잠재력을 최대한 실현하기 위해 충족되어야 했습니다. 다중 카메라 입력 엣지 애플리케이션에 더 나은 커버리지와 추적을 제공하기 위해 안면 인식 시스템에는 여러 카메라 입력이 필요합니다. 또한 여러 카메라 입력을 지원하는 단일 시스템은 전체 배포 비용을 줄이는 데 도움이 되므로 더 적은 예산으로 도시와 지역 사회에 지능형 보안 솔루션을 더 매력적으로 만들 수 있습니다. 강력한 AI 프로세서 엣지 애플리케이션에 배포하기 위한 강력한 안면 인식 소프트웨어를 통해 AI 시스템은 소프트웨어를 효과적으로 실행할 수 있을 만큼 강력해야 합니다. 임베디드 시스템 회사의 AI 솔루션을 효과적이고 유연하게 배포할 수 있도록 하려면 시스템을 도시, 커뮤니티 및 건물에 대한 다양한 임베디드 구성으로 배포해야 합니다. 이를 위해서는 다양한 공간에 적합할 뿐만 아니라 다양한 환경과 기상 조건을 처리할 수 있을 뿐만 아니라 설치가 용이한 견고한 시스템이 필요합니다. 독점적 소프트웨어 보호 AI 기술의 대규모 개발업체인 이 회사는 소프트웨어를 보호하는 데 도움이 되는 시스템이 필요했습니다. 독점 소프트웨어를 공격으로부터 안전하게 보호하기 위해 회사는 소프트웨어가 복사되거나 도난당하는 것을 방지하기 위해 특수 암호화 보호 장치를 마련해야 했습니다. 커스텀 OS 회사의 AI 소프트웨어를 전문화하려면 맞춤형 운영 체제 및 시스템 기능의 개발이 필요했습니다. 이 회사는 맞춤형 Linux 빌드를 고안했지만 원활한 작동을 보장하기 위해 OS를 테스트하고 개선하는 데 도움을 줄 파트너가 필요했습니다. 용액 AAEON은 수상 경력에 빛나는 임베디드 AI Edge 솔루션 제조업체입니다. 이 회사는 AI 소프트웨어를 위한 하드웨어 솔루션을 제공할 뿐만 아니라 AI Edge 시스템을 시장에 출시하는 데 필요한 테스트 및 준비를 제공하는 데 필요한 지원을 제공하기 위해 AAEON에 접근했습니다. AAEON은 회사와의 긴밀한 협력을 통해 NVIDIA Jetson TX8120가 탑재된 BOXER-2AI 임베디드 AI 시스템이 가장 적합한 솔루션을 결정했습니다. 뛰어난 I/O 기능 BOXER-8120AI는 IP 카메라 네트워크 구축에 완벽한 8120개의 기가비트 이더넷 포트를 포함하여 I/O 기능을 강력하게 보완합니다. 이 회사는 또한 BOXER-<>AI를 COM 및 CANbus 포트로 구성하여 시스템이 더 많은 센서 또는 에지 노드와 연결할 수 있도록 하여 스마트 시티 및 스마트 커뮤니티 프레임워크에 더 긴밀하게 통합할 수 있도록 요청합니다. NVIDIA Jetson TX2 탑재 BOXER-8120AI는 NVIDIA Jetson TX2로 구동됩니다. Jetson TX2는 듀얼 코어 Denver 2 및 쿼드 코어 ARM Cortex-A57 프로세서를 결합하여 만든 헥사코어 프로세서를 특징으로 합니다. 또한 8GB의 LPDDR4 메모리와 최대 32GB의 온보드 eMMC 스토리지를 갖추고 있습니다. 최대 256개의 CUDA 코어 프로세싱을 지원하는 NVIDIA Jetson TX8120가 탑재된 BOXER-2AI는 AI 시스템에 필요한 성능을 제공합니다. 콤팩트하고 견고한 디자인 BOXER-8120AI는 컴팩트하고 견고하게 제작되었습니다. 두께가 30mm에 불과하여 거의 모든 좁은 공간에 들어갈 수 있습니다. 팬이 없는 디자인과 전체 알루미늄 섀시를 통해 -20°C에서 50°C의 넓은 온도 범위를 포함하여 다양한 조건에서 작동할 수 있습니다. 또한 회사는 BOXER-8120AI의 미적 디자인에 깊은 인상을 받았습니다. 소프트웨어 보안 AAEON은 고객과 협력하여 소프트웨어를 안전하게 유지하고 지적 재산의 불법 복제 및 도난을 방지하는 데 도움이 되는 임베디드 시스템을 제공합니다. BOXER-8120AI에는 몇 가지 주요 보호 기능이 기본으로 제공됩니다. 회사와 협력하여 BOXER-8120AI를 고급 암호화 보호 시스템으로 구성하여 특정 요구 사항과 우려 사항을 해결했습니다. OEM/ODM 서비스 AAEON은 OEM/ODM 서비스를 통해 CANBus 포트 추가부터 맞춤형 소프트웨어 보호 제공에 이르기까지 지원을 제공했습니다. AAEON은 회사와 긴밀히 협력하여 회사가 사용하기로 선택한 맞춤형 Linux 빌드를 테스트하고 개선하는 데 도움을 주었습니다. 또한 AAEON은 BIOS를 사용자 정의하여 불필요한 드라이버와 하드웨어 컨트롤러를 제거하여 시스템을 효율적이고 간결하게 만들었습니다. 이를 통해 최종 사용자 경험이 개선되었으며 테스트 시간을 단축하고 시장 출시 시간을 단축할 수 있었습니다. 영향 AAEON은 회사와의 긴밀한 협력을 통해 하드웨어 솔루션뿐만 아니라 OEM/ODM 지원을 제공하여 안면 인식 AI 솔루션을 신속하게 시장에 출시할 수 있도록 지원했습니다. 회사의 안면 인식 에지 AI 시스템의 배치로 도시는 교통 및 사고 모니터링에 대한 스마트 시티 노력을 확장할 수 있고, 스마트 커뮤니티는 거주자에게 더 나은 안전을 제공할 수 있으며, 지능형 보안 기능이 있는 건물은 내부 사람과 재산을 안전하게 보호할 수 있습니다. AI Edge 애플리케이션의 수와 지능형 솔루션을 제공할 수 있는 능력이 계속 증가함에 따라 전 세계의 도시와 커뮤니티는 주민들에게 더 높은 삶의 질을 누릴 수 있게 될 것입니다. BOXER-8120AI 임베디드 AI 시스템 BOXER-8120AI는 엣지 AI 컴퓨팅을 위해 설계되었습니다. 임베디드 AI 솔루션 제품군인 BOXER-8100AI의 일부인 이 제품은 NVIDIA Jetson TX2가 장착되어 256개의 CUDA 코어와 Tensorflow, Caffe2 및 Mxnet을 포함한 다양한 AI 프레임워크를 지원합니다. 사용자는 BOXER-8120AI에 자신의 AI 추론 소프트웨어를 설치할 수도 있습니다. BOXER-8120AI에는 IP 카메라를 지원하는 211개의 Intel LAN(i8120) 포트가 있으며 방진 사양, 넓은 작동 온도 범위, 광범위한 전원 입력 및 알루미늄 섀시와 같은 일련의 견고한 설계 기능을 자랑합니다. BOXER-<>AI는 컴팩트하고 비용 효율적인 디자인과 강력한 처리 능력을 갖추고 있어 AI 플랫폼을 어디에나 배치할 수 있습니다. AAEON 제조업체 서비스는 구성, 사용자 정의 및 OEM/ODM 지원을 제공하여 AI 애플리케이션을 빠르고 효과적으로 제공할 수 있도록 합니다. I/O 포트를 변경하거나 BIOS를 재구성하는 등 AAEON은 헌신적인 하드웨어 솔루션 파트너이며 프로젝트의 특정 요구 사항을 충족합니다.

상세보기

[GIGABYTE] 제너레이티브 AI를 활용하려면 "훈련"과 "추론"에 대해 배워야 합니다

2023.07.04

[GIGABYTE] 제너레이티브 AI를 활용하려면 "훈련"과 "추론"에 대해 배워야 합니다

  물론 생성형 AI는 실제로 붓을 들고 있는 로봇이 아닙니다. 그러나 이 연상시키는 이미지는 AI의 미래가 얼마나 사랑스럽고 유능하며 영감을 줄 수 있는지를 나타냅니다.   생성 AI의 기량을 재탕하기보다는, 우리는 계속해서 커튼을 뒤로 젖힐 것입니다 : 모든 생성 AI는 "훈련"과 "추론"이라는 두 가지 필수 프로세스로 요약됩니다. 그들이 어떻게 작동하는지 이해하면, 당신은 그것들이 당신을 위해 일할 수 있는 확고한 위치에 있게 될 것입니다. 챗봇인 ChatGPT를 예로 들어 보겠습니다. "GPT"의 "T"는 트랜스포머(transformer)의 약자로, 대규모 언어 모델(Large Language Model) 또는 줄여서 LLM이라고 하는 자연어 처리(NLP)의 하위 집합에서 사용하는 아키텍처입니다. LLM은 딥 러닝 및 인공 신경망 (ANN) 기술을 통해 레이블이 지정되지 않은 텍스트의 큰 코퍼스 (우리는 수조에 달하는 단어 수에 대해 이야기하고 있습니다)에서 스스로를 "훈련"할 수 있기 때문에 인간처럼 읽고 쓰는 것을 컴퓨터에 가르치는 주된 방법이되었습니다. 간단히 말해서 위키백과 전체에 해당하는 내용을 통해 읽고 쓰는 법을 스스로 배웠기 때문에 거의 모든 주제에 대해 대화할 수 있습니다. 쿼리에 응답하기 위해 과거 훈련을 활용하는 부분을 "추론"이라고합니다.용어집:《자연어 처리란?》《딥러닝이란?》 자, 그렇다면 Stable Diffusion이나 Midjourney 또는 무수한 텍스트-이미지 모델 중 하나는 어떻게 작동합니까? ChatGPT와 크게 다르지 않은데, 이번에는 언어 모델에 생성 이미지 모델이 첨부되어 있다는 점을 제외하면 말입니다. 이 모델은 또한 많은 양의 디지털 텍스트와 이미지에 대해 훈련되어 AI가 이미지를 텍스트로 변환하거나(단어를 사용하여 그림에 있는 내용을 설명) 또는 그 반대로(그리도록 요청한 것을 그리기) 변환할 수 있습니다. 최종 작품을 더욱 매력적으로 만들기 위해 마스킹이나 블러를 재치 있게 주입하는 것은 스마트폰으로 셀카를 찍어본 사람이라면 누구에게나 제2의 천성처럼 느껴질 것입니다. AI에게 올바른 프롬프트를 제공하기 위해 충분한 노력을 기울이면 AI가 생성한 예술이 미술 경연 대회에서 블루 리본을 수상한 것은 놀라운 일이 아닙니다.이제 가장 인기 있는 형태의 생성 AI가 작동하는 방식에 대한 기본 사항을 보여드렸으므로 인공 지능의 이 흥미롭고 새로운 돌파구를 만드는 데 필요한 관련 기술과 도구에 대해 자세히 알아보겠습니다.《용어집: 인공 지능이란 무엇입니까?》 일반적으로 AI 훈련 과정에서 레이블이 지정된 데이터의 바다가 알고리즘에 쏟아져 "연구"됩니다. AI는 추측을 한 다음 정확성을 높이기 위해 답을 확인합니다. 시간이 지남에 따라 AI는 추측에 능숙해져서 항상 정확한 추측을 할 것입니다. 즉, 작업하기를 원하는 정보를 "학습"한 것입니다.   의심의 여지 없이, 상호 연결된 전자 장치가 매일 수집하는 방대한 양의 데이터인 빅 데이터는 AI가 학습할 수 있는 풍부한 정보를 갖도록 하는 데 큰 도움이 되었습니다. 이전의 훈련 방법은 "레이블이 지정된" 데이터에 의존했고 인간 프로그래머가 감독했습니다. 그러나 최근의 발전으로 AI는 레이블이 지정되지 않은 데이터를 사용하여 자체 지도 또는 반 지도 학습에 참여할 수 있게 되어 프로세스가 크게 빨라졌습니다.《용어집: 빅 데이터란 무엇입니까?》말할 필요도 없이 AI를 훈련시키는 데 필요한 컴퓨팅 리소스의 범위는 숨이 멎을 뿐만 아니라 기하급수적으로 증가하고 있습니다. 예를 들어, 1년에 출시된 GPT-2018은 약 8.0페타플롭/초일(pfs-일)의 리소스를 사용하여 "96개의 GPU에서 한 달" 동안 훈련되었습니다. 3년에 출시된 GPT-2020는 3,630pfs-day의 리소스를 사용했습니다. GPT-4의 현재 반복에 대한 숫자는 사용할 수 없지만 관련된 시간과 컴퓨팅이 GPT-3보다 훨씬 더 컸다는 것은 의심의 여지가 없습니다.《용어집: GPU란 무엇입니까?》따라서 AI 교육에 참여하고 싶다면 강력한 GPU 컴퓨팅 플랫폼이 필요합니다. GPU는 병렬 컴퓨팅을 통해 많은 양의 데이터를 처리하는 데 탁월하기 때문에 선호됩니다. 병렬화 덕분에 앞서 언급한 트랜스포머 아키텍처는 공급되는 모든 순차적 데이터를 한 번에 처리할 수 있습니다. 안목 있는 AI 전문가에게는 AI를 훈련하는 데 걸리는 시간을 더욱 줄이는 것이 목표라면 GPU 내의 코어 유형도 차이를 만들 수 있습니다.자세히 알아보기:《용어집:병렬 컴퓨팅이란 무엇입니까?》《용어집: Core란?》《CPU vs. GPU: 어떤 프로세서가 적합합니까? GIGABYTE 기술 가이드》     추론: 작동 방식, 사용할 도구 및 GIGABYTE가 도울 수 있는 방법 AI가 제대로 훈련되고 테스트되면 추론 단계로 넘어갈 차례입니다. AI는 익숙하지 않은 새로운 데이터의 홍수에 노출되어 가라앉는지 헤엄치는지 확인합니다. 생성 AI의 경우, 이것은 명왕성의 도심 범죄에 대한 에세이 작성 요청부터 19 세기 일본 예술가 우타가와 히로시게 (Utagawa Hiroshige)의 스타일로 말을 탄 우주 비행사의 그림을 그리라는 요구에 이르기까지 모든 것을 의미 할 수 있습니다.AI는 이러한 새로운 입력의 매개 변수를 광범위한 학습 프로세스 중에 "학습"된 것과 비교하고 적절한 출력을 생성합니다. 이러한 전방 및 후방 전파가 레이어 사이에서 분리되는 동안 다른 흥미로운 일도 일어나고 있습니다. AI는 다음 훈련 세션을 위해 인간 사용자로부터 받은 응답을 컴파일합니다. 잘한 일에 대해 칭찬을 받을 때 주의를 기울이고, 인간이 그 결과물을 비판할 때 특히 주의를 기울입니다. 이러한 지속적인 훈련과 추론 루프는 인공 지능을 매일 더 스마트하고 생생하게 만드는 것입니다. GIGABYTE의 G293-Z43은 소형 70U 섀시에 업계 최고 수준의 초고밀도 AMD Alveo™ V2 추론 가속기 카드 <>개를 제공합니다. 이 설정은 뛰어난 성능과 에너지 효율성을 제공할 뿐만 아니라 대기 시간을 단축합니다. 이러한 고밀도 구성은 GIGABYTE의 독자적인 서버 냉각 기술에 의해 가능합니다.   생성형 AI는 소매업과 제조업에서 의료와 은행업에 이르기까지 우리 삶의 점점 더 많은 측면에 침투하고 있습니다. 결국 선택하는 서버 솔루션은 AI를 "훈련"하기 위해 데이터를 처리하든, 현실 세계에서 "추론"할 수 있도록 AI 모델을 배포하든, 생성형 AI 여정의 어느 부분에 힘을 실어주고 싶은지에 따라 달라집니다. 새로운 AI 발명품의 기량은 프로세서 코어의 아키텍처와 같은 미세한 것부터 GIGABYTE Technology의 전체 솔루션과 같은 포괄적인 것에 이르기까지 AI 작업을 위해 설계된 수많은 전용 도구가 있다는 것을 이해하면 도달할 수 없는 것처럼 보이지 않을 것입니다. 성공을 달성하기 위한 도구가 마련되어 있습니다. 당신이해야 할 일은 인공 지능이 어떻게 "당신의 삶을 업그레이드"할 수 있는지 발견하는 것입니다.

상세보기