top of page
for Desktop.png

驅動未來,智慧 AI
Powering the Future of AI

顛覆 AI 訓練、推理與效能表現

3d Logo Mockup on Building-A 1_edited.jpg

關於我們

遠界算力中心股份有限公司
VISCOR Computing Corporation

・專注於高效能算力設備的採購、設置與運營,服務亞洲市場 ( 東北亞、東南亞、台灣 ) 及全球雲服務提供商 ( CSP ) 

・公司初期採購 8 台 NVIDIA GB200 NVL72 (GPU+ARM 架構) 和一定數量的 NVIDIA DGX B200 ( GPU+x86 架構 ) 

・提供 AI 訓練、邊緣運算與資料處理解決方案,並致力於永續發展與技術創新

VISCOR 與 NVIDIA 合作

我們與 NVIDIA 緊密合作,為全球 AI 企業與資料中心提供最先進的 AI 計算平台,並確保客戶獲得最高效能與最優成本的 AI 訓練解決方案

技術亮點

資安面

在地 AI 雲端運算,資料安全保障

效能面

高效訓練效能,打造 AI 應用工具

穩定性

在地算力供應低延遲高穩定服務

部署面

靈活部署

for Desktop.png
Novy-projekt拷貝.png

NVIDIA
GB200 NVL72

核心特點

  • 72 顆高效 Tensor Cores,專為大規模 AI 訓練設計,提升計算效率與並行處理能力

  • 80GB HBM3 記憶體,具備 2TB/s 記憶體頻寬,確保高速資料存取

  • 支援 FP16、BFLOAT16、INT8 運算精度,兼顧 AI 訓練與推理效能

  • 強化散熱管理技術,提升持續高效運行的穩定性

AI 訓練

  • 比 H100 快 3 倍,適用於 大型語言模型(LLM)、深度學習與高效能計算(HPC)

  • 支援多節點分布式訓練,提升 AI 訓練吞吐量與計算擴展性

  • 適用於生成式 AI,提供更強的計算能力以支援高強度 AI 模型運行

AI 推理

  • 超低延遲推理能力,適用於高需求 AI 應用場景

  • 比 H100、H200 快 2.5 倍,顯著提升批量推理效能

  • 高效處理多層神經網絡推理,支援更複雜 AI 任務運行

大型語言模型(LLM)推理

  • 比 NVIDIA H100 Tensor Core GPU 快 30 倍

  • 適用於 ChatGPT、BERT、Llama 等 AI 生成與理解模型

大型語言模型(LLM)訓練

  • 比 H100 快 4 倍,大幅縮短 AI 訓練週期

  • 支援高效 LLM 訓練架構,優化參數調整與計算效能

能效表現

  • 比 H100 提升 25 倍,降低 AI 運算功耗,提高能源效率

  • 優化功耗管理,確保 AI 計算中心的可持續運行

資料處理

  • 比傳統 CPU 快 18 倍,大幅提升資料分析與高效運算能力

  • 適用於雲端計算、大數據處理、機器學習工作負載

滾動查看

AI 訓練速度

AI 推理速度

LLM 訓練速度

LLM 推理速度

能效提升

資料處理速度

GB200 NVL72

比 H100 快 3 倍

比 H100 快 2.5 倍

比 H100 快 4 倍

比 H100 快 30 倍

比 H100 提升 25 倍

比 CPU 快 18 倍

H100

基準

基準

基準

基準

基準

N/A

H200

比 H100 快 1.5 倍

比 H100 快 2 倍

N/A

N/A

N/A

N/A

AMD MI300X

比 H100 快 2 倍

比 H100 快 2 倍

N/A

N/A

比 H100 提升 20 倍

N/A

Intel Gaudi 2

比 H100 快 2 倍

比 H100 快 1.8 倍

N/A

N/A

比 H100 提升 18 倍

N/A

性能對比

滾動查看

Powering the Future of AI

應用場景

Image by James Hunt
智慧城市

AI 交通監控。違規偵測。城市資料分析

Image by Maxim Hopman
警政與反詐欺

AI 金融監控。詐騙資料分析。犯罪預測

Image by Ben Koorengevel
國防與安全

無人機影像識別。戰術模擬。軍事 AI 決策

Image by NOAA
環境與氣象監測

AI 氣象預測。碳排放分析。生態監測

Image by Irwan
醫療 AI

AI 影像診斷。藥物研發。生物醫學資料分析

方案與價格

VISCOR Cluster Engine 定價

請聯絡我們獲取
專案報價

VISCOR Cluster Engine 透過 Kubernetes AI 訓練架構,提供高效 GPU 資源管理,適用於 AI 雲端運算與企業內部算力管理。

  • 企業內部 AI 計算環境最佳化

  • 自動負載平衡與資源管理

  • 適用於政府與企業 AI 訓練中心

On-demand GPU 方案

NT$ 4,900 / GPU 小時

聯繫專家

彈性使用 GPU 資源,適合短期 AI 計算與訓練

  • GPU 規格:8 × NVIDIA GB200 NVL72

  • 運算處理器:雙 Intel 48 核心處理器

  • 總記憶體:2TB

  • 儲存設備:2 × 960 GB NVMe SSD + 8 × 7.68TB NVMe SSD

  • GPU 連接:InfiniBand 400GB/s / GPU

  • 乙太網速:100GB/s

方案價格規劃中
敬請期待

聯絡我們

Get in touch.

聯絡事項

​常見問題

  • 我們提供 按需 GPU(On-demand) 及 預留 GPU(Reserve) 兩種方案,適用於不同的 AI 訓練與推理需求。

  • - 按小時計費(未滿 1 小時以 1 小時計算)
    - 按運算量計費(TFLOP 計價,選配)
    - API 訂閱模式(依請求次數 / token 計價)

  • 是的,我們提供:
    - 長期租賃折扣(100 小時以上)
    - 企業 AI 訓練專案優惠
    - 政府 AI 監控 / HPC 專案合作

  • 目前提供 NVIDIA GB200 NVL72,並支援 H100 / H200 叢集混合運行。

  • GB200 NVL72 記憶體頻寬 2TB/s,比 H100 快 3 倍 AI 訓練速度、30 倍 LLM 推理效能。

  • 是的,VISCOR 提供 Cluster Engine,支援 Kubernetes GPU 調度、自動負載平衡、分布式 AI 訓練。

  • 我們支援 TensorFlow、PyTorch、JAX、CUDA、cuDNN、TensorRT、Triton,並相容 Docker、Kubernetes。

  • 是的,我們提供 RESTful API / gRPC API,可用於 AI 推理、GPU 運算資源管理。

  • 是的,我們的 GPU 伺服器支援 NVLink / NVSwitch 及 InfiniBand 400GB/s,確保 低延遲、高吞吐量的 AI 訓練與推理。

  • 是的,VISCOR 支援 GPUDirect Storage,可加速 AI 訓練資料存取,提高 I/O 效能。

  • 是的,我們符合 ISO 27001、SOC 2、GDPR、CCPA,並可提供 政府 AI 計算本地部署方案。

  • 不會。我們不會儲存或共享企業的 AI 訓練資料,並提供 專屬 GPU 伺服器確保資料隱私。

  • 是的,我們支援 VPN 及專屬私有雲網路,確保企業資料安全性。

  • 是的,企業可透過 管理面板查看 GPU 使用率、記憶體狀況、錯誤日誌,並支援 API 監控。

  • 是的,企業可申請 專屬 AI 訓練技術顧問,獲得 1 對 1 AI 模型訓練最佳化建議。

  • 是的,我們提供 企業 AI 訓練課程、MLOps 實作培訓,並支援 開發者技術支援。

  • 是的,我們開放與 大學、研究機構、政府 AI 專案 合作,支援 AI 訓練算力與資料分析。

滾動查看

bottom of page