日期:2014-05-16  浏览次数:20790 次

[linux]linux过滤日志奇偶数行
sed -n -e 'n' -e 'p' -i tmp.txt 偶数 实践过

去掉文件里的重复行:
sort file |uniq

下面就把这些方法总结下来。
along@along-laptop:~/code/shell$ cat file
1
2
3
4
5
6
7

awk实现:

一:
1,awk 'NR%2==1' file
2,awk 'NR%2==0' file

二:(这是直接将偶数行和奇数行分别打印到了file2和file1中,这种方法有缺陷就是在file2中始终会打印
     最后一行,这个应该改进。不过这也是一种思想,我就把这种方法放在这里了。)
awk '{print $0 > "file1"; getline; print $0 > "file2"; }' file

三:
1.awk 'NR%2' file
2.awk '!(NR%2)' file

四:
1.awk 'i=i?0:1' file
2.awk '!(i=i?0:1)' file

五:
1.awk 'i=!i' file
2.awk '!(i=!i)' file

解释:
awk 'var=xx'应该说等价于awk 'xx{print}{var=xx}'

awk 'i=!i'  == >  awk '!i{print}{i=!i}
line 1: !0{print}{i=!0}==> {print;i=1}
line 2: !1{print}{i=!1}==> {i=0}
line 3: !0{print}{i=!0}==> {print;i=1}
sed实现

一:
1.sed -n 'p;n' file
2.sed -n 'n;p' file

二:(这种方法更通用一点)
1.sed -n '1~2p' file
2.sed -n '2~2p' file

关于sed的模式空间的问题以及G,g,H,h的问题可以在我的另外一篇文章中找到我的总结。
http://blog.chinaunix.net/u2/77727/showart.php?id=1997477