Parquet 和 ORC 到底有啥区别?别再云里雾里了,咱今天把列式存储聊明白!

Parquet 和 ORC 到底有啥区别?别再云里雾里了,咱今天把列式存储聊明白!

Parquet 和 ORC 到底有啥区别?别再云里雾里了,咱今天把列式存储聊明白!

大家好,我是你们熟悉的 Echo_Wish。最近后台私信问我:“师傅,Parquet 和 ORC 到底该怎么选?看网上资料越看越迷糊,感觉它俩就是双胞胎。”

我说一句大实话:Parquet 和 ORC 是双胞胎没错,但一个偏文科,一个偏理科,理念不同、能力不同、适用场景也不同。

今天,咱就从工程师视角把 列式存储的核心逻辑 + Parquet/ORC 内部机制 + 选型建议 讲得明明白白。保证你看完之后,能在开技术会时拍着桌子说:

“这个任务我们必须选 ORC!” 或 “这个场景不用犹豫,直接 Parquet!”

开整!

🌟 一、为什么要列式存储?别只背概念

咱先别急着上标准答案“为分析优化、压缩率高、IO 少”这种 PPT 话。我用一句人话解释:

行式存储=仓库把货按订单放,列式存储=仓库把货按“属性”分区放。

如果你常干 OLAP 分析,那你 90% 的时间在做:

统计某列

过滤某列

分组某列

求和某列

这种情况下,扫描全行是非常浪费的,特别是字段很多的时候 —— 行式存储就像 Excel 每次都要把整行翻出来,速度自然慢。

列式存储把字段拆开存储,扫描少、压缩高,分析快,天生适合大数据。

这就是为什么 Hive、Presto、Trino、Spark SQL、Iceberg、Hudi 都离不开它。

🌟 二、Parquet 与 ORC:它俩是在“同一个目标,不同的哲学”

你可以这么理解:

Parquet:跨生态、跨引擎的通用格式,偏向 Spark/Presto 等多引擎混用的体系。

ORC:Hadoop 家族亲儿子,为 Hive 做了非常多的专门优化。

下面我拆开它俩的内部机制讲。

🔍 三、Parquet 内部结构:字段式的精致主义者

Parquet 的结构非常“分层、规整、易扩展”。大概长这样:

File

├─ Row Groups

│ ├─ Column Chunk A

│ │ ├─ Pages

│ ├─ Column Chunk B

│ │ ├─ Pages

...

└─ Footer (Schema + Metadata)

💡 关键点:

1)以 Row Group 为单位组织数据

一个 Row Group 通常 128MB ~ 1GB

大数据引擎读取时可以并发处理多个 Row Group

2)每列的数据独立压缩

每列可以不同编码,例如:

字符串:DICT

int:RLE

布尔:bit-packed

非常适合 高基数+稀疏 的列。

3)Parquet 注重跨系统兼容性

Spark、Presto、Impala、ClickHouse、Iceberg 都用它。

📌 代码示例(PySpark 写入 Parquet)

df.write.mode("overwrite").parquet("/tmp/parquet_demo")

🔍 四、ORC 内部结构:为 Hive 而生的“压缩狂魔”

ORC 的结构看起来比 Parquet 更“工程化”:

File

├─ Stripes (大块数据)

│ ├─ Index Data

│ ├─ Row Data

│ └─ Stripe Footer

└─ File Footer

💡 关键点:

1)以 Stripe(Stripe ≈ 64MB 默认) 为核心

一个 Stripe 包含:

Row Data(核心数据)

Index Data(索引)

Stripe Footer(压缩、偏移信息)

内置的 Stripe Index 能让 ORC 的谓词下推更狠。

2)压缩能力更强

ORC 默认对字符串和整数使用更 aggressive 的字典编码 + RLE2,压缩率往往比 Parquet 高 10%-30%。

3)统计信息非常丰富(Hive 优化器最爱)

例如:

min/max

distinct count

bloom filter

null count

column statistics

Hive 的 CBO(成本优化器)依赖这些统计信息做优化。

📌 代码示例(Spark 写 ORC)

df.write.mode("overwrite").orc("/tmp/orc_demo")

⚔️ 五、核心差异总结(最干的部分)

维度

Parquet

ORC

发源地

Twitter + Cloudera

Hortonworks(Hive 原生)

最佳搭档

Spark / Presto / Iceberg

Hive / ETL 批处理

压缩率

更高(通常)

统计信息

足够

特别丰富

查询加速

优秀

极优秀

小文件处理

较好

略优

写入速度

稍快

略慢

跨生态兼容性

最佳

一般

写成一句话:

你要生态?选 Parquet。你要极致压缩+极致 Hive 查询?选 ORC。

💼 六、实际工程选型建议(我最让人点赞的部分)

✔ ① Spark 生态+多系统混用

Parquet 是王道。你很可能还有 Presto/Trino、ClickHouse、Iceberg/Hudi/Lakehouse,要兼容就选它。

✔ ② 基于 Hive 的离线数仓 + 大批量 ETL

ORC 更稳。Hive 的优化和 ORC 一家亲,性能差异能达到 20%-50%。

✔ ③ 强压缩率需求(数据湖冷存储)

ORC 是更实惠的选择。

✔ ④ 流式写入 + 下游多引擎消费

Parquet 更均衡。

✔ ⑤ Iceberg/Hudi/Delta Lake

绝大多数推荐默认:Parquet(数据湖标配,不解释。)

🧪 七、一个真实案例:同样 100GB 文本表 Parquet vs ORC

我们当时做了一个测试(Spark + Hive 混合场景):

数据量:100GB 原始 JSON

字段数:64 列

业务场景:Ad-hoc 分析 + 部分 Hive Join

📊 结果非常典型:

指标

Parquet

ORC

压缩后体积

16.3 GB

11.9 GB

Hive 查询性能

1.0x

1.3~1.5x

Spark 查询性能

1.0x

0.95x

兼容性

⭕ perfect

❌ 稍弱

看结果就一句话:

ORC = Hive 场景“专用武器”

Parquet = 通用型“万能螺丝刀”

🔚 八、写在最后:格式选对,你的数仓就少走一半弯路

很多团队之所以数仓慢、查询卡、资源浪费,其实根本不是 Spark/Hive 的问题,而是——

底层文件格式选错了,天生短板再怎么调参也补不回来。

我自己的经验是:

大数据生态越来越多引擎协作 → Parquet 适应性最强

Hive 仍然是很多公司的离线基础设施 → ORC 在这块依旧无敌

数据湖时代已经到了 → Parquet 是事实标准

你可能也喜欢

内部顾客
365bet繁体中文

内部顾客

📅 10-08 👀 5557
司法考试考哪些科目内容详解
365bet繁体中文

司法考试考哪些科目内容详解

📅 09-19 👀 2545
应收账款借贷方分别表示什么?
365体育网址备用

应收账款借贷方分别表示什么?

📅 07-16 👀 2837
彪哥读过哪些书?——范德彪的私人阅读史
365bet皇冠体

彪哥读过哪些书?——范德彪的私人阅读史

📅 06-30 👀 4312
《封神传奇》为何成“史诗级烂片”?
365体育网址备用

《封神传奇》为何成“史诗级烂片”?

📅 09-12 👀 2804
TeamViewer 免費版限制
365体育网址备用

TeamViewer 免費版限制

📅 10-11 👀 5888
想知道中国人的长相是否有地域特点?网友告诉你答案_手机网易网
翰墨丹青是什么意思
365bet繁体中文

翰墨丹青是什么意思

📅 10-03 👀 2010
王者荣耀什么英雄最要攻速 王者荣耀:攻速之魂——谁是最需要攻速的英雄?