您的位置:首页 > 互联网

英伟达 H100 vs. 苹果M2,大模型训练,哪款性价比高?_英伟达m1000m

发布时间:2023-07-24 19:44:17  来源:互联网     背景:

关键词:M2 芯片;Ultra;M1 芯片;UltraFusion;ULTRAMAN;RTX4090、A800;A100;H100;LLAMA、LM、AIGC、CHATGLM、LLVM、LLM、LLMs、GLM、NLP、ChatGPT、AGI、HPC、GPU、CPU、CPU+GPU、英伟达、Nvidia、英特尔、AMD、高性能计算、高性能服务器、蓝海大脑、多元异构算力、高性能计算、大模型训练、大型语言模型、通用人工智能、GPU服务器、GPU集群、大模型训练GPU集群、大语言模型

摘要:训练和微调大型语言模型对于硬件资源的要求非常高。目前,主流的大模型训练硬件通常采用英特尔的CPU和英伟达的GPU。然而,最近苹果的M2 Ultra芯片和AMD的显卡进展给我们带来了一些新的希望。

苹果的M2 Ultra芯片是一项重要的技术创新,它为苹果设备提供了卓越的性能和能效。与此同时,基于AMD软硬件系统的大模型训练体系也在不断发展,为用户提供了更多选择。尽管英伟达没有推出与苹果相媲美的200G显卡,但他们在显卡领域的竞争仍然激烈。对比苹果芯片与英伟达、英特尔、AMD的最 新硬件和生态建设,我们可以看到不同厂商在性价比方面带来了全新的选择。

蓝海大脑为生成式AI应用提供了极具吸引力的算力平台,与英特尔紧密协作,为客户提供强大的大模型训练和推理能力,加速AIGC创新步伐、赋力生成式AI产业创新。

a100英伟达

一、基于英特尔CPU+英伟达GPU的大模型训练基础架构

1、深度学习架构大模型的主要优势

当前主流大模型架构都是基于深度学习transformer的架构模型,使用GPU训练深度学习架构的大模型主要有以下优势:

1)高性能计算

深度学习中的大部分计算都是浮点计算,包括矩阵乘法和激活函数的计算。GPU在浮点计算方面表现出色,具有高性能计算能力。

2)并行计算能力

GPU具有高度并行的计算架构,能够同时执行多个计算任务。深度学习模型通常需要执行大量的矩阵乘法和向量运算,这些操作可以高度并行的方式进行,从而提高深度学习模型训练效率。

3)高内存带宽

GPU提供高达几百GB/s的内存带宽,满足深度学习模型对数据大容量访问需求。这种高内存带宽能够加快数据传输速度,提高模型训练的效率。

英伟达m1000m参数

2、当前大多数大模型采用英特尔的CPU加英伟达的GPU作为计算基础设施的原因

尽管GPU在训练大模型时发挥着重要作用,但单靠GPU远远不够。除GPU负责并行计算和深度学习模型训练外,CPU在训练过程中也扮演着重要角色,其主要负责数据的预处理、后处理以及管理整个训练过程的任务。通过GPU和CPU之间的协同工作,可以实现高效的大规模模型训练。

1)强大的性能

英特尔最 新CPU采用Alder Lake架构,具备出色的通用计算能力。而英伟达最 新GPU H100 拥有3.35TB/s的显存带宽、80GB的显存大小和900GB/s的显卡间通信速度,对大数据吞吐和并行计算提供友好的支持。

2)广泛的支持和生态系统

基于英特尔CPU提供的AVX2 指令集和基于英伟达GPU提供的CUDA并行计算平台和编程模型,构建优 秀的底层加速库如PyTorch等上层应用。

3)良好的兼容性和互操作性

在硬件和软件设计上考虑彼此配合使用的需求,能够有效地协同工作。这种兼容性和互操作性使得英特尔的CPU和英伟达的GPU成为流行的组合选择,在大规模模型训练中得到广泛应用。

二、苹果的M2 Ultra和统一内存架构

在WWDC2023 开发者大会上苹果推出M2 Ultra芯片,以及搭载该芯片的新款Mac Studio和Mac Pro。这款芯片采用了第二代5nm制程工艺技术,是苹果迄今为止最强大的芯片。

去年 3 月,苹果展示了一种将两块M1 芯片“粘”在一起的设计,发布集成 1140 亿颗晶体管、 20 核CPU、最 高 64 核GPU、 32 核神经网络引擎、2.5TB/s数据传输速率、800GB/s内存带宽、128GB统一内存的“至 尊版”芯片M1 Ultra。延续M1 Ultra的设计思路,M2 Ultra芯片通过采用突破性的UltraFusion架构,将两块M2 Max芯片拼接到一起,拥有 1340 亿个晶体管,比上一代M1 Ultra多出 200 亿个。

UltraFusion是苹果在定制封装技术方面的领先技术,其使用硅中介层(interposer)将芯片与超过 10000 个信号连接起来,从而提供超过2.5TB/s的低延迟处理器间带宽。基于这一技术,M2 Ultra芯片在内存方面比M1 Ultra高出了50%,达到192GB的统一内存,并且拥有比M2 Max芯片高两倍的800GB/s内存带宽。以往由于内存不足,即使是最强大的独立GPU也无法处理大型模型。然而,苹果通过将超大内存带宽集成到单个SoC中,实现单台设备可以运行庞大的机器学习工作负载,如大型Transformer模型等。

三、AMD的大模型训练生态

除苹果的M2 Ultra在大模型训练方面取得了显著进展之外,AMD的生态系统也在加速追赶。

据 7 月 3 日消息,NVIDIA以其显著的优势在显卡领域获得了公认的地位,无论是在游戏还是计算方面都有着显著的优势,而在AI领域更是几乎垄断。然而,有好消息传来,AMD已经开始发力,其MI250 显卡性能已经达到了NVIDIA A100 显卡的80%。 AMD在AI领域的落后主要是因为其软件生态无法跟上硬件发展的步伐。尽管AMD的显卡硬件规格很高,但其运算环境与NVIDIA的CUDA相比仍然存在巨大的差距。最近,AMD升级了MI250 显卡,使其更好地支持PyTorch框架。

MosaicML的研究结果显示,MI250 显卡在优化后的性能提升显著,大语言模型训练速度已达到A100 显卡的80%。AMD指出,他们并未为MosaicML进行这项研究提供资助,但表示将继续与初创公司合作,以优化软件支持。 但需要注意的是,NVIDIA A100 显卡是在 2020 年 3 月发布的,已经是上一代产品,NVIDIA目前最 新的AI加速卡是H100,其AI性能有数倍至数十倍的提升。AMD的MI250 显卡也不是最 新产品,其在 2021 年底发布,采用CDNA2 架构,6nm工艺,拥有 208 个计算单元和 13312 个流处理器核心。

m1芯片和英伟达

AMD体系的特点如下:

1、LLM训练稳定

使用AMD MI250 和NVIDIA A100 在MPT-1B LLM模型上进行训练时,从相同的检查点开始,损失曲线几乎完全相同。

2、性能与现有的A100 系统相媲美

MosaicML对MPT模型的1B到13B参数进行了性能分析发现MI250 每个GPU的训练吞吐量在80%的范围内与A100-40GB相当,并且与A100-80GB相比在73%的范围内。随着AMD软件的改进,预计这一差距将会缩小。

3、基本无需代码修改

得益于PyTorch对ROCm的良好支持,基本上不需要修改现有代码。

四、英伟达显卡与苹果M2 Ultra 相比性能如何

1、英伟达显卡与M2 Ultra 相比性能如何

在传统英特尔+英伟达独立显卡架构下,CPU与GPU之间的通信通常通过PCIe进行。最强大的H100 支持PCIe Gen5,传输速度为128GB/s,而A100 和 4090 则支持PCIe 4,传输速度为64GB/s。

另一个重要的参数是GPU的显存带宽,即GPU芯片与显存之间的读写速度。显存带宽是影响训练速度的关键因素。例如,英伟达 4090 显卡的显存带宽为1.15TB/s,而A100 和H100 的显存带宽分别为1.99TB/s和3.35TB/s。

最后一个重要的参数是显存大小,它指的是显卡上的存储容量。目前, 4090 是消费级显卡的好选择,显存大小为24GB,而A100 和H100 单张显卡的显存大小均为80GB。这个参数对于存储大规模模型和数据集时非常重要。

英伟达m2000m

M2 Ultra的芯片参数和 4090 以及A100 的对比(CPU采用英特尔最 新的i9-13900KS)

从这些参数来看,苹果的M2 Ultra相对来说性能稍低。然而,M2 Ultra最重要的优势在于统一内存,即CPU读写的内存可以直接被显卡用作显存。因此,拥有192GB的显存几乎相当于 8 个 4090 或者2. 5 个A100/H100 的显存。这意味着单个M2 Ultra芯片可以容纳非常大的模型。例如,当前开源的LLaMA 65B模型需要120GB的显存才能进行推理。这意味着苹果的M2 Ultra可以直接适用于LLaMA 65B,而目前没有其他芯片能够单独承载如此庞大的模型,甚至包括最 新的H100。

英伟达m1000m参数

从上述参数对比来看,M2 Ultra在其他指标接近 4090 的情况下,显存大小成为其最 大的优势。尽管M2 Ultra并非专为大模型训练而设计,但其架构非常适合进行大模型训练。

在上层生态方面,进展也非常良好。 2022 年 5 月 18 日,PyTorch宣布支持苹果芯片,并开始适配M1 Ultra,利用苹果提供的芯片加速库MPS进行加速Ultra上使用PyTorch进行训练。以文本生成图片为例,它能够一次性生成更多且更高精度的图片。

2、NVIDIA为什么不推出一款200GB显存以上的GPU?

主要原因可以分为以下几点:

1)大语言模型火起来还没多久;

2)显存容量和算力是要匹配的,空有192GB显存,但是算力不足并无意义;

3)苹果大内存,适合在本地进行推理,有希望引爆在端侧部署AI的下一轮热潮。

从 2022 年 11 月ChatGPT火起来到现在,时间也不过才半年时间。从项目立项,到确定具体的规格,再到设计产品,并且进行各种测试,最终上市的全流程研发时间至少在一年以上。客观上讲,大语言模型形成全球范围的热潮,一定会带动对于显存容量的需求。英伟达未来显存容量的升级速度一定会提速。

过去之所以消费级显卡的显存容量升级较慢,根本原因是没有应用场景。8GB的消费级显卡用来打游戏足矣,加速一些视频剪辑也绰绰有余。更高的显存容量,只能服务于少量科研人员,而且大多都去买了专业卡专门应用。现在有了大语言模型,可以在本地部署一个开源的模型。有了对于显存的明确需求,未来一定会快速提升显存容量的。

其次,苹果有192GB的统一内存可以用于大语言模型的“训练”。这个认知是完全错误的。AI模型可以分为训练(train)、微调(fine-tune)和推理(inference)。简单来说,训练就是研发人员研发AI模型的过程,推理就是用户部署在设备上来用。从算力消耗上来说,是训练>微调>推理,训练要比推理的算力消耗高至少 3 个数量级以上。

训练也不纯粹看一个显存容量大小,而是和芯片的算力高度相关的。因为实际训练的过程当中,将海量的数据切块成不同的batch size,然后送入显卡进行训练。显存大,意味着一次可以送进更大的数据块。但是芯片算力如果不足,单个数据块就需要更长的等待时间。

显存和算力,必须要相辅相成。在有限的产品成本内,两者应当是恰好在一个平衡点上。现阶段英伟达的H100 能够广泛用于各大厂商的真实模型训练,而不是只存在于几个自媒体玩具级别的视频里面,说明H100 能够满足厂商的使用需要。

要按苹果的显存算法,一块Grace Hopper就超过了啊。一块Grace Hopper的统一内存高达512GB,外加Hopper还有96GB的独立显存,早就超了。

英伟达和苹果

3、使用NVIDIA H100 训练ChatGPT大模型仅用 11 分钟

AI技术的蓬勃发展使得NVIDIA的显卡成为市场上备受瞩目的热门产品。尤其是高端的H100 加速卡,其售价超过 25 万元,然而市场供不应求。该加速卡的性能也非常惊人,最 新的AI测试结果显示,基于GPT- 3 的大语言模型训练任务刷新了记录,完成时间仅为 11 分钟。

英伟达m1000m参数

据了解,机器学习及人工智能领域的开放产业联盟MLCommons发布了最 新的MLPerf基准评测。包括 8 个负载测试,其中就包含基于GPT- 3 开源模型的LLM大语言模型测试,这对于评估平台的AI性能提出了很高的要求。

参与测试的NVIDIA平台由 896 个Intel至强8462Y+处理器和 3584 个H100 加速卡组成,是所有参与平台中一家能够完成所有测试的。并且,NVIDIA平台刷新了记录。在关键的基于GPT- 3 的大语言模型训练任务中,H100 平台仅用了10. 94 分钟,与之相比,采用 96 个至强 8380 处理器和 96 个Habana Gaudi2 AI芯片构建的Intel平台完成同样测试所需的时间为311. 94 分钟。

H100 平台的性能几乎是Intel平台的 30 倍,当然,两套平台的规模存在很大差异。但即便只使用 768 个H100 加速卡进行训练,所需时间仍然只有45. 6 分钟,远远超过采用Intel平台的AI芯片。

H100 加速卡采用GH100 GPU核心,定制版台积电4nm工艺制造,拥有 800 亿个晶体管。它集成了 18432 个CUDA核心、 576 个张量核心和60MB的二级缓存,支持6144-bit HBM高带宽内存以及PCIe 5. 0 接口。

英伟达m2000m

H100 计算卡提供SXM和PCIe 5. 0 两种样式。SXM版本拥有 15872 个CUDA核心和 528 个Tensor核心,而PCIe 5. 0 版本则拥有 14952 个CUDA核心和 456 个Tensor核心。该卡的功耗最 高可达700W。

就性能而言,H100 加速卡在FP64/FP32 计算方面能够达到每秒 60 万亿次的计算能力,而在FP16 计算方面达到每秒 2000 万亿次的计算能力。此外,它还支持TF32 计算,每秒可达到 1000 万亿次,是A100 的三倍。而在FP8 计算方面,H100 加速卡的性能可达每秒 4000 万亿次,是A100 的六倍。

苹果13挖孔

五、蓝海大脑大模型训练平台

蓝海大脑大模型训练平台提供强大的支持,包括基于开放加速模组高速互联的AI加速器。配置高速内存且支持全互联拓扑,满足大模型训练中张量并行的通信需求。支持高性能I/O扩展,同时可以扩展至万卡AI集群,满足大模型流水线和数据并行的通信需求。强大的液冷系统热插拔及智能电源管理技术,当BMC收到PSU故障或错误警告(如断电、电涌,过热),自动强制系统的CPU进入ULFM(超低频模式,以实现最 低功耗)。致力于通过“低碳节能”为客户提供环保绿色的高性能计算解决方案。主要应用于深度学习、学术教育、生物医药、地球勘探、气象海洋、超算中心、AI及大数据等领域。

1、为什么需要大模型?

1)模型效果更优

大模型在各场景上的效果均优于普通模型

2)创造能力更强

大模型能够进行内容生成(AIGC),助力内容规模化生产

3)灵活定制场景

通过举例子的方式,定制大模型海量的应用场景

4)标注数据更少

通过学习少量行业数据,大模型就能够应对特定业务场景的需求

2、平台特点

1)异构计算资源调度

一种基于通用服务器和专用硬件的综合解决方案,用于调度和管理多种异构计算资源,包括CPU、GPU等。通过强大的虚拟化管理功能,能够轻松部署底层计算资源,并高效运行各种模型。同时充分发挥不同异构资源的硬件加速能力,以加快模型的运行速度和生成速度。

2)稳定可靠的数据存储

支持多存储类型协议,包括块、文件和对象存储服务。将存储资源池化实现模型和生成数据的自由流通,提高数据的利用率。同时采用多副本、多级故障域和故障自恢复等数据保护机制,确保模型和数据的安全稳定运行。

3)高性能分布式网络

提供算力资源的网络和存储,并通过分布式网络机制进行转发,透传物理网络性能,显著提高模型算力的效率和性能。

4)全方位安全保障

在模型托管方面,采用严格的权限管理机制,确保模型仓库的安全性。在数据存储方面,提供私有化部署和数据磁盘加密等措施,保证数据的安全可控性。同时,在模型分发和运行过程中,提供全面的账号认证和日志审计功能,全方位保障模型和数据的安全性。

3、常用配置

目前大模型训练多常用H100、H800、A800、A100 等GPU显卡,其中H100 配备第四代 Tensor Core 和 Transformer 引擎(FP8 精度),与上一代产品相比,可为多专家 (MoE) 模型提供高 9 倍的训练速度。通过结合可提供 900 GB/s GPU 间互连的第四代 NVlink、可跨节点加速每个 GPU 通信的 NVLINK Switch 系统、PCIe 5.0 以及 NVIDIA Magnum IO™ 软件,为小型企业到大规模统一 GPU 集群提供高效的可扩展性。

搭载 H100 的加速服务器可以提供相应的计算能力,并利用 NVLink 和 NVSwitch 每个 GPU 3 TB/s 的显存带宽和可扩展性,凭借高性能应对数据分析以及通过扩展支持庞大的数据集。通过结合使用 NVIDIA Quantum-2 InfiniBand、Magnum IO 软件、GPU 加速的 Spark 3.0 和NVIDIA RAPIDS™,NVIDIA 数据中心平台能够以出色的性能和效率加速这些大型工作负载。

1)H100 工作站常用配置

CPU:英特尔至强Platinum 8468 48C 96T 3.80GHz 105MB 350W *2

内存:动态随机存取存储器64GB DDR54800 兆赫 *24

存储:固态硬盘3.2TB U.2 PCIe第 4 代 *4

GPU :Nvidia Vulcan PCIe H100 80GB *8

平台 :HD210 *1

散热 :CPU+GPU液冷一体散热系统 *1

网络 :英伟达IB 400Gb/s单端口适配器 *8

电源:2000W(2+2)冗余高效电源 *1

2)A800 工作站常用配置

CPU:Intel 8358P 2.6G 11.2UFI 48M 32C 240W *2

内存:DDR4 3200 64G *32

数据盘:960G 2.5 SATA 6Gb R SSD *2

硬盘:3.84T 2.5-E4x4R SSD *2

网络:双口10G光纤网卡(含模块)*1

双口25G SFP28 无模块光纤网卡(MCX512A-ADAT )*1

GPU:HV HGX A800 8-GPU 8OGB *1

电源:3500W电源模块*4

其他:25G SFP28 多模光模块 *2

单端口200G HDR HCA卡(型号:MCX653105A-HDAT) *4

2GB SAS 12Gb8 口 RAID卡 *1

16A电源线缆国标1.8m *4

托轨 *1

主板预留PCIE4.0x16 接口 *4

支持 2 个M.2 *1

原厂质保 3 年 *1

3)A100 工作站常用配置

CPU:Intel Xeon Platinum 8358P_2.60 GHz_32C 64T_230W *2

RAM:64GB DDR4 RDIMM服务器内存 *16

SSD1:480GB 2. 5 英寸SATA固态硬盘 *1

SSD2:3.84TB 2. 5 英寸NVMe固态硬盘 *2

GPU:NVIDIA TESLA A100 80G SXM *8

网卡1:100G 双口网卡IB 迈络思 *2

网卡2:25G CX5 双口网卡 *1

4)H800 工作站常用配置

CPU:Intel Xeon Platinum 8468 Processor,48C64T,105M Cache 2.1GHz,350W *2

内存 :64GB 3200MHz RECC DDR4 DIMM *32

系统硬盘: intel D7-P5620 3.2T NVMe PCle4.0x4 3DTLCU.2 15mm 3DWPD *4

GPU: NVIDIA Tesla H800 -80GB HBM2 *8

GPU网络: NVIDIA 900-9x766-003-SQO PCle 1-Port IB 400 OSFP Gen5 *8

存储网络 :双端口 200GbE IB *1

网卡 :25G网络接口卡 双端口 *1


返回网站首页

本文评论
腾讯自我革命进入ToB期:“微软式”转型到来在即?
企业发展最大敌人往往是自身,这句话对腾讯而言恰如其分。 据媒体报道,腾讯正在掀起史上第三次的重大组织架构调整,腾讯...
日期:09-29
“老板想做AI,而我想做掉老板”「老板想要那个」
声明:本文来自于微信公众号DoNews(ID:ilovedonews),作者:三三,授权转载发布。“游戏+AI要作为我们的一个重点方向。”iphone12降价幅度即便已经做了小半年的心理建设,但当这话从史玉...
日期:04-11
12月京东手机销量_京东手机4月换新季:iPhone11登顶单品销量冠军宝座
  清明假期已过,大家都纷纷开启了节后模式,京东手机4月换新季手机竞速榜也迎来了一手资讯,我们一起来看看吧!   Apple 荣耀竞争不断 iPhone 11夺得单品销量冠军   iPhon...
日期:09-12
达量限速后不再收费什么意思_达量限速终结是变相涨价?
  (原标题:达量限速终结是变相涨价?专家:该套餐致4G流量激增体验降速)   在4G流量红利逐渐见顶的当下,达量限速套餐的停售,似乎已经成为运营商摆脱夸大宣传印象、降低4G网...
日期:01-17
Orange Business Services携手法国众公司共同测试5G技术的开发与应用
  近日,Orange集团董事长兼首席执行官Stéphane Richard先生在Orange商业峰会(Orange Business Summit)上,对在场1,000多家与会的Orange Business Services (Orange)客户提...
日期:04-07
钛动科技ChinaJoy:游戏出海正当时
  在国内,向上竞争将面对巨头压力,向下发展又面临流量困局,到海外去,正成为国内游戏企业的重要课题。   2021年7月30日至8月1日,第十九届ChinaJoy将在上海新国际博览...
日期:05-20
软银宣布将减持近四成阿里持仓 套现340亿美元_软银持股阿里巴巴比例
iPhone 6有什么功能京东定时抢购 查看最新行情   编辑/史正丞   当地时间周三傍晚,软银集团发布公告,宣布将通过结算预付远期合约的方式,减持阿里巴巴持...
日期:08-11
中央网信办:集中整治网络暴力、网络水军、网络黑公关方面问题
  记者/张赛 刘婷玉  国务院新闻办公室于8月23日下午举行新闻发布会。中央网信办副主任、国家网信办副主任盛荣华介绍:中央网信办结合每年开展的“清朗”系列专项行动,将...
日期:08-24
美图旗下美图秀秀、Wink上线“AI建模脸”功能「美图秀秀美图ai功能在哪」
7月18日 消息:近日,美图公司旗下美图秀秀及Wink上线“AI建模脸”功能。据悉,“建模脸”是指长相标准符合大众审美,五官比较立体,类似CG动漫人物的脸型。Facebook市值首破万亿美...
日期:07-18
微粒贷借钱线上申请简单方便,还款灵活按日计息_微粒贷借还规则
小编本人平时有资金周转不开的时候也会用到微粒贷,前几天还收到一个小伙伴的反馈,说上个月在微粒贷上借钱应急,体验非常好,简单方便,到账及时。不得不说,微粒贷确实是一款正规靠谱...
日期:07-11
明晚发布!小米13 Ultra外观正式揭晓:更像相机了
快科技4月17日消息,在发布会到来的前一天,小米官方终于正式揭晓了小米13 Ultra的外观设计。今早,小米手机官微发布了一段外观视频,首次展示了小米13 Ultra的外观,以及大家关心的...
日期:04-17
金邦ddr4 2400 8g「金邦将于明年第 1 季度推出 DDR5-8000 16 GB x 2 内存套装」
IT之家 12 月 27 日消息,金邦(GeIL)宣布将于 2023 年第 1 季度推出 DDR5-8000 16 GB x 2 CL38-48-48-90 1.45V 超高速内存套装。该内存套装包括 EVO V DDR5 系列和 Polaris RGB...
日期:12-27
5G商用 工业数字化转型进入快车道(5G为数字化转型插上翅膀(科技视点))
  10月31日,在2019中国国际通信展上,工信部与三大运营商正式宣布5G商用启动,并同时发布了5G套餐的资费详情,标志着5G正式走进人们的生活。   其实,5G不仅在通信、购物、娱...
日期:09-05
一张图看懂 | 财富不断缩水的万亿美元市值俱乐部_全球股市市值突破85万亿美元
11月15日 消息:美联储的激进紧缩政策导致科技股在2022年暴跌,而这也动摇了万亿美元市值俱乐部的成员地位。以下是现有四个符合万亿美元市值俱乐部资格的成员:公司领域市值达...
日期:11-18
网友称5千元买洗地机用2小时就坏掉:售后无门_洗地机好使吗
2月24日消息,陕西西安一消费者称自己在抖音里的追光生活电器旗舰店花5千元购买的洗地机仅仅使用了119分钟就坏掉了, 去找旗舰店客服申请售后更是体验感极差。抖音显示当前商品...
日期:02-25
女子吐槽领导隔监控点名员工加班 大家为工作不敢反抗:网友唏嘘
4月15日,浙江绍兴一网友吐槽公司实行监控点名加班制,员工苦不堪言。据员工刘女士介绍,公司因行业特性,工作量大,工作时间长,领导因为业绩总是不达标问题想出来的监控点名加班这个...
日期:04-16
京东第一季度服务收入474亿元 同比增长34.5%「京东第一季度营收」
2023/5/13 20:05 京东第一季度服务收入474亿元 同比增长34.5% 新浪科技   京东(Nasdaq:JD;HKEX: 9618)今日发布了截至3月31日的2023年第一季度财报。财报显示,京东第一季度净...
日期:05-26
网易知识公路创作平台「上线两年多,网易知识公路平台即将停运」
7月15日 消息:近日,网易知识公路平台宣布即将停止运营。根据公司业务调整的需要,该平台将于2023年7月27日00:00正式关闭,为这段旅程画上句号。据公告透露,自7月13日起,网易知识公...
日期:07-15
丰田要慌!大众看上中国科技公司:宣布168亿在华投资项目_丰田在中国的投资
在电动化时代,传统车企貌似被新势力打得有些应接不暇,不过也有很多传统车企已经意识到了这点,发力新能源赛道,这其中最具代表性的就是大众。近日,大众汽车集团官宣旗下软件公司CA...
日期:10-28
哪吒汽车何时上市「哪吒汽车9月交付18005台」
10月1日消息,哪吒汽车公布9月交付数据。9月哪吒“U+V”交付量18005台,同比增长134%;1-9月累计交付111190台,同比增长168%,哪吒S订单超15万台。极米科技出货量微软surface pro x...
日期:10-04