用于ETL的Python數(shù)據(jù)轉(zhuǎn)換工具
前幾天,我去Reddit詢問是否應(yīng)該將Python用于ETL相關(guān)的轉(zhuǎn)換,并且壓倒性的回答是"是"。
但是,盡管我的Redditor同事熱心支持使用Python,但他們建議研究Pandas以外的庫-出于對大型數(shù)據(jù)集Pandas性能的擔(dān)憂。
經(jīng)過研究,我發(fā)現(xiàn)了很多用于數(shù)據(jù)轉(zhuǎn)換的Python庫:有些改進(jìn)了Pandas的性能,而另一些提供了自己的解決方案。
我找不到這些工具的完整列表,所以我想我可以使用所做的研究來編譯一個(gè)工具-如果我錯(cuò)過了什么或弄錯(cuò)了什么,請告訴我!
Pandas
總覽
Pandas當(dāng)然不需要介紹,但是我還是給它一個(gè)介紹。
Pandas在Python中增加了DataFrame的概念,并在數(shù)據(jù)科學(xué)界廣泛用于分析和清理數(shù)據(jù)集。 它作為ETL轉(zhuǎn)換工具非常有用,因?yàn)樗共僮鲾?shù)據(jù)非常容易和直觀。
優(yōu)點(diǎn)
-
廣泛用于數(shù)據(jù)處理
簡單直觀的語法
與其他Python工具(包括可視化庫)良好集成
支持常見的數(shù)據(jù)格式(從SQL數(shù)據(jù)庫,CSV文件等讀取)
缺點(diǎn)
-
由于它會將所有數(shù)據(jù)加載到內(nèi)存中,因此無法擴(kuò)展,并且對于非常大(大于內(nèi)存)的數(shù)據(jù)集來說可能是一個(gè)錯(cuò)誤的選擇
進(jìn)一步閱讀
-
10分鐘Pandas
Pandas機(jī)器學(xué)習(xí)的數(shù)據(jù)處理
Dask
總覽
根據(jù)他們的網(wǎng)站," Dask是用于Python并行計(jì)算的靈活庫。"
從本質(zhì)上講,Dask擴(kuò)展了諸如Pandas之類的通用接口,供在分布式環(huán)境中使用-例如,Dask DataFrame模仿了。
優(yōu)點(diǎn)
-
可擴(kuò)展性— Dask可以在本地計(jì)算機(jī)上運(yùn)行并擴(kuò)展到集群
能夠處理內(nèi)存不足的數(shù)據(jù)集
即使在相同的硬件上,使用相同的功能也可以提高性能(由于并行計(jì)算)
最少的代碼更改即可從Pandas切換
旨在與其他Python庫集成
缺點(diǎn)
-
除了并行性,還有其他方法可以提高Pandas的性能(通常更為顯著)
如果您所做的計(jì)算量很小,則沒有什么好處
Dask DataFrame中未實(shí)現(xiàn)某些功能
進(jìn)一步閱讀
-
Dask文檔
為什么每個(gè)數(shù)據(jù)科學(xué)家都應(yīng)該使用Dask
Modin
總覽
Modin與Dask相似之處在于,它試圖通過使用并行性并啟用分布式DataFrames來提高Pandas的效率。 與Dask不同,Modin基于Ray(任務(wù)并行執(zhí)行框架)。
Modin優(yōu)于Dask的主要好處是Modin可以自動處理跨計(jì)算機(jī)核心分發(fā)數(shù)據(jù)(無需進(jìn)行配置)。
優(yōu)點(diǎn)
-
可伸縮性— Ray比Modin提供的更多
完全相同的功能(即使在相同的硬件上)也可以提高性能
最小的代碼更改即可從Pandas切換(更改import語句)
提供所有Pandas功能-比Dask更多的"嵌入式"解決方案
缺點(diǎn)
-
除了并行性,還有其他方法可以提高Pandas的性能(通常更為顯著)
如果您所做的計(jì)算量很小,則沒有什么好處
進(jìn)一步閱讀
-
Modin文檔
Dask和Modin有什么區(qū)別?
Petl
總覽
petl包含了pandas的許多功能,但專為ETL設(shè)計(jì),因此缺少額外的功能,例如用于分析的功能。 petl具有用于ETL的所有三個(gè)部分的工具,但本文僅專注于數(shù)據(jù)轉(zhuǎn)換。
盡管petl提供了轉(zhuǎn)換表的功能,但其他工具(例如pandas)似乎更廣泛地用于轉(zhuǎn)換和有據(jù)可查的文檔,因此petl對此吸引力較小。
優(yōu)點(diǎn)
-
最小化系統(tǒng)內(nèi)存的使用,使其能夠擴(kuò)展到數(shù)百萬行
對于在SQL數(shù)據(jù)庫之間進(jìn)行遷移很有用
輕巧高效
缺點(diǎn)
-
通過很大程度地減少對系統(tǒng)內(nèi)存的使用,petl的執(zhí)行速度會變慢-不建議在性能很重要的應(yīng)用程序中使用
較少使用此列表中的其他解決方案進(jìn)行數(shù)據(jù)處理
進(jìn)一步閱讀
-
使用Petl快速了解數(shù)據(jù)轉(zhuǎn)換和遷移
petl轉(zhuǎn)換文檔
PySpark
總覽
Spark專為處理和分析大數(shù)據(jù)而設(shè)計(jì),并提供多種語言的API。 使用Spark的主要優(yōu)點(diǎn)是Spark DataFrames使用分布式內(nèi)存并利用延遲執(zhí)行,因此它們可以使用集群處理更大的數(shù)據(jù)集,而Pandas之類的工具則無法實(shí)現(xiàn)。
如果要處理的數(shù)據(jù)非常大,并且數(shù)據(jù)操作的速度和大小很大,Spark是ETL的理想選擇。
優(yōu)點(diǎn)
-
可擴(kuò)展性和對更大數(shù)據(jù)集的支持
就語法而言,Spark DataFrames與Pandas非常相似
通過Spark SQL使用SQL語法進(jìn)行查詢
與其他流行的ETL工具兼容,包括Pandas(您實(shí)際上可以將Spark DataFrame轉(zhuǎn)換為Pandas DataFrame,從而使您可以使用各種其他庫)
與Jupyter筆記本電腦兼容
內(nèi)置對SQL,流和圖形處理的支持
缺點(diǎn)
-
需要一個(gè)分布式文件系統(tǒng),例如S3
使用CSV等數(shù)據(jù)格式會限制延遲執(zhí)行,需要將數(shù)據(jù)轉(zhuǎn)換為Parquet等其他格式
缺少對數(shù)據(jù)可視化工具(如Matplotlib和Seaborn)的直接支持,這兩種方法都得到了Pandas的良好支持
進(jìn)一步閱讀
-
Python中的Apache Spark:新手指南
PySpark簡介
PySpark文檔(尤其是語法)
值得一提
盡管我希望這是一個(gè)完整的列表,但我不希望這篇文章過長!
確實(shí)有很多許多用于數(shù)據(jù)轉(zhuǎn)換的Python工具,因此我包括了這一部分,至少是我錯(cuò)過的其他項(xiàng)目(我可能會在本文的第二部分中進(jìn)一步探討這些項(xiàng)目)。
結(jié)論
我希望這份清單至少可以幫助您了解Python必須提供哪些工具來進(jìn)行數(shù)據(jù)轉(zhuǎn)換。 在進(jìn)行了這項(xiàng)研究之后,我相信Python是ETL的優(yōu)秀選擇-這些工具及其開發(fā)人員使它成為了一個(gè)了不起的平臺。
就像我在本文開頭提到的那樣,我不是該領(lǐng)域的專家-如果您有任何補(bǔ)充,請隨時(shí)發(fā)表評論!
謝謝閱讀!
聲明:免責(zé)聲明:本文內(nèi)容由互聯(lián)網(wǎng)用戶自發(fā)貢獻(xiàn)自行上傳,本網(wǎng)站不擁有所有權(quán),也不承認(rèn)相關(guān)法律責(zé)任。如果您發(fā)現(xiàn)本社區(qū)中有涉嫌抄襲的內(nèi)容,請發(fā)
送郵件至:operations@xinnet.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),本站將立刻刪除涉嫌侵權(quán)內(nèi)容。本站原創(chuàng)內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)
需注明出處:新網(wǎng)idc知識百科