大日志文件切割
原文链接:http://www.shujuyr.com/1905.html
问题如下:
应用服务器上产生了一个 8G 的 log 大文件,辛辛苦苦的把日志下载到本地,结果各种文本编辑器都打不开,文件太大了。能把 8G 的 日志文件按需求切割吗?
我说:能!
解决方式
1、head 命令切割大日志文件
很容易理解,head
命令是用来获取文本文件的开始 n 行。
举例:
1 | head -50000 java.log > blog.log |
2、tail 命令分割 log 文件
tail
命令是用来获取文本最后行。
举例:
1 | tail -50000 java.log > blog.log |
3、sed 命令切割 log 文件
sed
命令可以从第 N 行截取到第M行。( N > 0 , M < FileLineNumber )
举例:
1 | sed -n '1,50000p' java.log > blog.log |
4、split 命令分割大 log 文件
每 3000 行切分生成一个心文件,–verbose
显示切分进度
举例:
1 | split -l 3000 java.txt blog.log --verbose |
每 100M 切分成一个新的文件,–verbose
显示切分进度
1 | split -d 100m java.txt blog.log --verbose |