Mellanox科技有限公司日前宣布,已向客户提供了超过50万个InfiniBand端口,这些端口体现在多种产品形式上,包括:集群服务器、高带宽交换机、嵌入式平台和集群存储系统。InfiniBand架构的这种快速增长,主要得益于越来越多的企业级数据中心的建立部署和持续发展的高性能计算的应用。
Mellanox公司CEO Eyal Waldman表示:“我们花了三年时间才达到销售20万端口的规模,但就在去年一年的时间里,InfiniBand端口部署的速度增长了150%,这表明基于InfiniBand的方案正在越来越快的被市场所接受”
目前,在以追求高性能为目的的商业和科学计算领域,机架式服务器和刀片服务器通过InfiniBand网络连接在一起,来构建高性能、低成本的计算集群。而随着成熟的驱动程序、操作系统和商业计算应用对InfiniBand的倾向与支持,InfiniBand技术会得到更快的发展与成长。
此外,业内人士认为,InfiniBand技术高带宽/低延迟的独特特性,使得InfinBand可以更容易的获得贸易优势和风险评估利益。此外,Mellanox还试着将InfiniBand技术的优势在集群存储和嵌入式系统领域推广。
在过去的6个月时间里,InfiniBand已经取得了多项重要的进展,如:
- 思科(Cisco)宣布收购InfiniBand交换机厂商--Topspin公司,进一步确定了InfiniBand技术的价值;
- IBM宣布其DB2数据库集群版本支持InfiniBand技术使其规模可以达到上千个节点;
- Infincon公司宣布其产品支持InfiniBand和Oracle 10g;
- 在刀片服务器体系中,InfiniBand成为唯一的10Gbs互连技术;
- 排名全球第二的集群(NASA, 52万亿次集群)采用的就是InfninBand互连技术;
- 标准的InfninBand驱动和IpoIB协议被直接加入到Linux内核中(2.6.11版本);
- 20Gb/s的InfninBand集群已经有了现实的展示,InfninBand联盟已经通过了120Gb/s的规格标准;
- SBS公司宣布VME InfninBand成为嵌入式应用中的唯一标准的10Gb/s互连技术;
- InfninBand芯片的功耗降低到2W,带RDMA和硬件传输功能 的单芯片的10Gb/s互连方案面世。
京公网安备 11011202001138号
