从算力到AI生态
算力是数字经济的基础设施
算力是通用人工智能的核心动力
通用人工智能
医药开发
高校教育
智慧工业
大气海洋
算力
AI生态
算力设施
第四次科技革命与AGI双浪叠加的时代背景下,新一轮科技创新周期将肇始于底层算力创新,繁荣于AIGC 等上层应用爆发,
竞争焦点也会从硬科技实力逐步过渡到产业生态构建等软实力。对算力中心来说,如何从算力出发,到赋能AI生态,将成为智算时代新命题。
🟦智算中心/算力设施运营方
🧑🏻‍💻AI开发者/应用使用者
🙋🏻‍♂️大模型应用开发者
♾️安全流通: 大模型企业/需求方
为算力基础设施管理方提供面向自有客户的算力管理与调度平台,提升80%运营运维效率,最大化算力利用率
提升80%算力运营效率、减少80%运维投入、提升100%算力利用率
算力需求异构,在交付形式、时间维度、服务要求、规模大小下有不同需求,交付成本高
痛点
缺乏合理的算力调度分配机制,产生算力碎片,利用效率低
缺乏灵活的库存及使用方式管理机制,运营人员人工投入高
算力异构,可能存在多个算力集群、多种算力架构、多种计算架构需要统一中心化纳管调度
私有化部署
算力管理与调度
为GPU算力设施拥有方打造算力接入-汇集-运营-高效利用的人工智能基础设施
获取高性价比算力难,无法灵活满足各类碎片化或长时的算力使用需求
AI工具链
算力管理与调度
为GPU算力设施拥有方打造算力接入-汇集-运营-高效利用的人工智能基础设施
一站式AI工具链,提供AI工具、开发环境及生产资料
一站式AI训推平台,提供有性价比的GPU算力,开箱即用的AI应用、工具、数据集、模型
节省99%环境配置时间、提升50%开发效率、节省50%算力成本
痛点
配置AI开发环境或AI应用使用环境难,周期长,开发效率低
所需的数据集、大模型获取难,存储迁移成本高,费时费力
SaaS
开发探索难,大模型下载、上传、部署、测试周期极长
痛点
为大模型应用开发者提供一站式大模型应用开发方法、算力与环境,包括秒级调用的Serverless API(标准推理服务)及大模型部署服务(自助推理服务),让应用开发者专注于应用开发,让大模型更透明、更灵活、更好用。
算力管理与调度
星舟·推理
为GPU算力设施拥有方打造算力接入-汇集-运营-高效利用的人工智能基础设施
生产级高吞吐、低延迟的大模型推理解决方案
推理部署难,缺乏相应大模型知识,学习成本高
服务更新维护难,适配最新推理框架及推理
推理服务运维难,难以灵活响应线上服务波动需求,灵活响应应用用户需求
节省99%运维成本、缩短99%生产级推理服务开发时间、降低99%推理服务成本
(标准推理服务)
SaaS
基础模型投入巨大、特定任务表现不佳
微调及使用LLM/FM时的数据与机密泄露风险
基于XCube技术构建机密可信计算专区,护航算法专业流通,面向不同行业任务提供大模型解决方案的整合能力,让大模型更安全、更便捷、更灵活。
星舟·密方
基于XCube技术构建机密可信计算集群,护航算法与数据安全流通
需要保护知识产权与商业利益
推动更多模型在更多重要场景落地
对于企业而言:
痛点
对于大模型而言:
私有化部署
SaaS
生态角色解决方案
智能算力调度算法
· 秒级调度,灵活扩缩容 · 多种调度策略支持权重配置,支持集中调度、分散调度等,
  适配各种场景
· 自动库存检测,减少运维压力
智能算力调度算法
· 秒级调度,灵活扩缩容
· 多种调度策略支持权重配置,支持集中调度、分散调度等,
   适配各种场景
· 自动库存检测,减少运维压力
异构算力统一调度
· 多集群接入:支持纳管异构多算力集群,包括公有云、IDC、
  超算,最快一天完成部署
· 支持异构算力,NVDIA/x86/ARM等 · 统一算力集群抽象和算力接入API
异构算力统一调度
· 多集群接入:支持纳管异构多算力集群,包括公有云、IDC、
  超算,最快一天完成部署
· 支持异构算力,NVDIA/x86/ARM等 · 统一算力集群抽象和算力接入API
精细化运营能力
· 支持灵活的售卖资源定义,包括Run-time、售卖周期、软硬
  件规格、售卖价格
· 多种售卖资源统一纳管,无需进行算力池隔离
· 支持机器排期管理及设置未来调度计划
精细化运营能力
· 支持灵活的售卖资源定义,包括Run-time、售卖周期、软硬
   件规格、售卖价格
· 多种售卖资源统一纳管,无需进行算力池隔离
· 支持机器排期管理及设置未来调度计划
K8s原生 兼容K8s生态
· 扩展K8s,实现容器、虚拟机等多Pod、多容器间的资源控
  制和共享,提高用户计算效率
· 实现多租户K8s,提供给租户强隔离、高可用、无限扩展的  
  K8s集群
· 兼容K8s应用,用户可无缝迁移工作负载,支持多种深度学
  习框架
K8s原生 兼容K8s生态
· 扩展K8s,实现容器、虚拟机等多Pod、多容器间的资源控
   制和共享,提高用户计算效率
· 实现多租户K8s,提供给租户强隔离、高可用、无限扩展
   K8s集群
· 兼容K8s应用,用户可无缝迁移工作负载,支持多种深度学
   习框架
算力调度引擎
K8s原生的异构算力调度、管理、精细化运营的核心引擎
AI工具链
一站式开箱即用的AI训推工具链及环境
开箱即用的AI工具
· 提供数据集、模型、镜像、应用等多种AI工具或生产资料,
  开箱即用
· 支持预热、缓存预取、版本控制、权限控制、集群分发等多
  种能力,加速AI开发者应用效率
· 提供数据集、模型、镜像、应用等多种AI工具或生产资料,
   开箱即用
· 支持预热、缓存预取、版本控制、权限控制、集群分发等多
   种能力,加速AI开发者应用效率
开箱即用的AI工具
数据编排能力
· 支持多种数据访问方式,可接入S3/MinIO、HDFS、Ceph、
  NFS等多个外部数据源
· 提供POSIX、HDFS API等多类API,使平台用户有能力以
  多种API访问多种外部数据源
· 支持多种数据访问方式,可接入S3/MinIO、HDFS、Ceph、
   NFS等多个外部数据源
· 提供POSIX、HDFS API等多类API,使平台用户有能力以
   多种API访问多种外部数据源
数据编排能力
企业生产级别高开发、低延迟、灵活调度的推理能力
星舟·推理
高效、易用、通用的推理框架
· 自研推理框架,兼容主流多模态大模型,包括图片生成、
  语言生成、语生成等大模型
· 一键部署,无需应用开发者进行额外推理服务开发 · 性能优化,提供业界领先的推理性能 · 提供企业生产级别高并发、低延迟灵活调度能力
· 自研推理框架,兼容主流多模态大模型,包括图片生成
   语言生成、语生成等大模型
· 一键部署,无需应用开发者进行额外推理服务开发
· 性能优化,提供业界领先的推理性能
· 提供企业生产级别高并发、低延迟灵活调度能力
高效、易用、通用的推理框架
Serverless API
· 基于推理框架部署Serverless API,为大模型应用开发者提
  供秒级启用的大模型推理能力,可按调用计费
· 全面支持热加载,长时间无请求API可自动缩容,有请求时
  动态加载,实现在有限算力上部署更多模型
· 基于推理框架部署Serverless API,为大模型应用开发者提
   供秒级启用的大模型推理能力,可按调用计费
· 全面支持热加载,长时间无请求API可自动缩容,有请求时
   动态加载,实现在有限算力上部署更多模型
Serverless API
星舟·密方
基于XCube技术构建机密可信计算专区,护航算法安全流通
企业级大模型安全应用环境
训练数据、业务数据安全保护,不被模型/算法提供方获取
企业级大模型安全应用环境
训练数据、业务数据安全保护,不被模型/算法提供方获取
基础模型安全托管环境
通过机密可信计算环境对外提供训练、推理服务,无忧模型与参数安全
基础模型安全托管环境
通过机密可信计算环境对外提供训练、推理服务,无忧模型与参数安全
由揽睿星舟与AIGCxChina、广州广播电视台《数字元渔舟》、StoryStorm(故事接龙社区)、WaytoAGI联合出品的国内首部六一AIMV《怎样的未来》正式全网上线播出!
翼方健数旗下的揽睿星舟人工智能系列产品案例与中国联通研究院共同入选了“CCIA2023年度人工智能优秀案例”“AI赋能数据要素创新应用”版块,获得了权威机构的认可。
XCube V1.3版本支持Intel TDX,兼容市面主流机密计算硬件,支持运行Stable Diffusion、Llama2、ChatGLM3等主流模型算法。
翼方健数携手揽睿星舟凭借在算力基座建设及人工智能生态发展方面的显著成果获评CIC灼识咨询主办人工智能赛道”灼耀之星”企业。
在这个重要时刻,揽睿星舟团队想向关心我们的每一位朋友送上最真挚的祝福和感激之情。
新闻动态
了解更多揽睿星舟相关资讯
了解更多
想要更深入地了解揽睿星舟?点击下方的按钮留言,我们将尽快与您联系
联系我们
关注我们
相关链接
总部:上海市长宁区安化路492号德必易园A栋3层
北京 · 青岛 · 厦门 · 宜昌 · 成都 · 杭州 · 香港
企业邮箱 contact@basebit.ai
总部电话 021 60290926
翼方健数公众号:BaseBit_ai
揽睿星舟公众号:Lanrui-ai