在机器学习里面常常要处理几个G的超大文本文件,打开很慢,我们可以先截取前几行来进行查看。
在linux中复制一个文件的前n行到另一个文件中
在命令行直接输入:(将data.txt的前100000行复制到sample.txt中)
head -n 100000 data.txt > sample.txt
那么如果是批量多个站点的呢,我们可以用循环方式去处理,如下:
for i in {1..2}; do head -n 6 newsdemomb3.com.conf > newsdemomb$i.com.conf; done
大家可以试试。
网友回答文明上网理性发言 已有0人参与
发表评论: