如果直接對大文件對象調用 read() 方法,會導致不可預測的內存占用。好的方法是利用固定長度的緩沖區來不斷讀取文件內容。即通過yield。
在用Python讀一個兩個多G的txt文本時,天真的直接用readlines方法,結果一運行內存就崩了。
還好同事點撥了下,用yield方法,測試了下果然毫無壓力。咎其原因,原來是readlines是把文本內容全部放于內存中,而yield則是類似于生成器。
代碼如下:
1
2
3
4
5
6
7
|
def open_txt(file_name): with open (file_name, 'r+' ) as f: while True : line = f.readline() if not line: return yield line.strip() |
調用實例:
1
2
|
for text in open_txt( 'aa.txt' ): print text |
例二:
目標 txt 文件大概有6G,想取出前面1000條數據保存于一個新的 txt 文件中做余下的操作,雖然不知道這樣做有沒有必要但還是先小數據量測試一下吧。參考這個帖子:我想把一個list列表保存到一個Txt文檔,該怎么保存 ,自己寫了一個簡單的小程序。
====================================================
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
|
import datetime import pickle start = datetime.datetime.now() print "start--%s" % (start) fileHandle = open ( 'train.txt' ) file2 = open ( 's_train.txt' , 'w' ) i = 1 while ( i < 10000 ): a = fileHandle.readline() file2.write(''.join(a)) i = i + 1 fileHandle.close() file2.close() print "done--%s" % ( datetime.datetime.now() - start) if __name__ = = '__main__' : pass |
====================================================
pickle 這個庫大家說的很多,官網看看,后面可以好好學習一下。