

關於我們
遠界算力中心股份有限公司
VISCOR Computing Corporation
・專注於高效能算力設備的採購、設置與運營,服務亞洲市場 ( 東北亞、東南亞、台灣 ) 及全球雲服務提供商 ( CSP )
・公司初期採購 8 台 NVIDIA GB200 NVL72 (GPU+ARM 架構) 和一定數量的 NVIDIA DGX B200 ( GPU+x86 架構 )
・提供 AI 訓練、邊緣運算與資料處理解決方案,並致力於永續發展與技術創新
VISCOR 與 NVIDIA 合作
我們與 NVIDIA 緊密合作,為全球 AI 企業與資料中心提供最先進的 AI 計算平台,並確保客戶獲得最高效能與最優成本的 AI 訓練解決方案
技術亮點
資安面
在地 AI 雲端運算,資料安全保障
效能面
高效訓練效能,打造 AI 應用工具
穩定性
在地算力供應低延遲高穩定服務
部署面
靈活部署


NVIDIA
GB200 NVL72
核心特點
-
72 顆高效 Tensor Cores,專為大規模 AI 訓練設計,提升計算效率與並行處理能力
-
80GB HBM3 記憶體,具備 2TB/s 記憶體頻寬,確保高速資料存取
-
支援 FP16、BFLOAT16、INT8 運算精度,兼顧 AI 訓練與推理效能
-
強化散熱管理技術,提升持續高效運行的穩定性
AI 訓練
-
比 H100 快 3 倍,適用於 大型語言模型(LLM)、深度學習與高效能計算(HPC)
-
支援多節點分布式訓練,提升 AI 訓練吞吐量與計算擴展性
-
適用於生成式 AI,提供更強的計算能力以支援高強度 AI 模型運行
AI 推理
超低延遲推理能力,適用於高需求 AI 應用場景
比 H100、H200 快 2.5 倍,顯著提升批量推理效能
高效處理多層神經網絡推理,支援更複雜 AI 任務運行
大型語言模型(LLM)推理
比 NVIDIA H100 Tensor Core GPU 快 30 倍
適用於 ChatGPT、BERT、Llama 等 AI 生成 與理解模型
大型語言模型(LLM)訓練
比 H100 快 4 倍,大幅縮短 AI 訓練週期
支援高效 LLM 訓練架構,優化參數調整與計算效能
能效表現
比 H100 提升 25 倍,降低 AI 運算功耗,提高能源效率
優化功耗管理,確保 AI 計算中心的可持續運行
資料處理
-
比傳統 CPU 快 18 倍,大幅提升資料分析與高效運算能力
-
適用於雲端計算、大數據處理、機器學習工作負載
滾動查看
AI 訓練速度
AI 推理速度
LLM 訓練速度
LLM 推理速度
能效提升
資料處理速度
GB200 NVL72
比 H100 快 3 倍
比 H100 快 2.5 倍
比 H100 快 4 倍
比 H100 快 30 倍
比 H100 提升 25 倍
比 CPU 快 18 倍
H100
基準
基準
基準
基準
基準
N/A
H200
比 H100 快 1.5 倍
比 H100 快 2 倍
N/A
N/A
N/A
N/A
AMD MI300X
比 H100 快 2 倍
比 H100 快 2 倍
N/A
N/A
比 H100 提升 20 倍
N/A
Intel Gaudi 2
比 H100 快 2 倍
比 H100 快 1.8 倍
N/A
N/A
比 H100 提升 18 倍
N/A
性能對比
滾動查看
Powering the Future of AI
應用場景

智慧城市
AI 交通監控。違規偵測。城市資料分析

警政與反詐欺
AI 金融監控。詐騙資料分析。犯罪預測

國防與安全
無人機影像識別。戰術模擬。軍事 AI 決策

環境與氣象監測
AI 氣象預測。碳排放分析。生態監測

醫療 AI
AI 影像診斷。藥物研發。生物醫學資料分析
方案與價格
On-demand GPU 方案
NT$ 4,900 / GPU 小時
彈性使用 GPU 資源,適合短期 AI 計算與訓練
-
GPU 規格:8 × NVIDIA GB200 NVL72
-
運算處理器:雙 Intel 48 核心處理器
-
總記憶體:2TB
-
儲存設備:2 × 960 GB NVMe SSD + 8 × 7.68TB NVMe SSD
-
GPU 連接:InfiniBand 400GB/s / GPU
-
乙太網速:100GB/s
方案價格規劃中
敬請期待
聯絡我們
常見問題
我們提供 按需 GPU(On-demand) 及 預留 GPU(Reserve) 兩種方案,適用於不同的 AI 訓練與推理需求。
- 按小時計費(未滿 1 小時以 1 小時計算)
- 按運算量計費(TFLOP 計價,選配)
- API 訂閱模式(依請求次數 / token 計價)是的,我們提供:
- 長期租賃折扣(100 小時以上)
- 企業 AI 訓練專案優惠
- 政府 AI 監控 / HPC 專案合作目前提供 NVIDIA GB200 NVL72,並支援 H100 / H200 叢集混合運行。
GB200 NVL72 記憶體頻寬 2TB/s,比 H100 快 3 倍 AI 訓練速度、30 倍 LLM 推理效能。
是的,VISCOR 提供 Cluster Engine,支援 Kubernetes GPU 調度、自動負載平衡、分布式 AI 訓練。
我們支援 TensorFlow、PyTorch、JAX、CUDA、cuDNN、TensorRT、Triton,並相容 Docker、Kubernetes。
是的,我們提供 RESTful API / gRPC API,可用於 AI 推理、GPU 運算資源管理。
是的,我們的 GPU 伺服器支援 NVLink / NVSwitch 及 InfiniBand 400GB/s,確保 低延遲、高吞吐量的 AI 訓練與推理。
是的,VISCOR 支援 GPUDirect Storage,可加速 AI 訓練資料存取,提高 I/O 效能。
是的,我們符合 ISO 27001、SOC 2、GDPR、CCPA,並可提供 政府 AI 計算本地部署方案。
不會。我們不會儲存或共享企業的 AI 訓練資料,並提供 專屬 GPU 伺服器確保資料隱私。
是的,我們支援 VPN 及專屬私有雲網路,確保企業資料安全性。
是的,企業可透過 管理面板查看 GPU 使用率、記憶體狀況、錯誤日誌,並支援 API 監控。
是的,企業可申請 專屬 AI 訓練技術顧問,獲得 1 對 1 AI 模型訓練最佳化建議。
是的,我們提供 企業 AI 訓練課程、MLOps 實作培訓,並支援 開發者技術支援。
是的,我們開放與 大學、研究機構、政府 AI 專案 合作,支援 AI 訓練算力與資料分析。
滾動查看