日期:2014-05-16  浏览次数:20622 次

Linux 常见命令列表(转)
这是一个linux常见命令的列表。
那些有? 标记的条目,你可以直接拷贝到终端上而不需要任何修改,因此你最好开一个终端边读边剪切&拷贝。
所有的命令已在Fedora和Ubuntu下做了测试

命令	描述
?	apropos whatis	显示和word相关的命令。 参见线程安全
?	man -t man | ps2pdf - > man.pdf	生成一个PDF格式的帮助文件
 	which command	显示命令的完整路径名
 	time command	计算命令运行的时间
?	time cat	开始计时. Ctrl-d停止。参见sw
?	nice info	运行一个低优先级命令(这里是info)
?	renice 19 -p $$	使脚本运行于低优先级。用于非交互任务。
目录操作
?	cd -	回到前一目录
?	cd	回到用户目录
 	(cd dir && command)	进入目录 dir,执行命令command然后回到当前目录
?	pushd .	将当前目录压入栈,以后你可以使用 popd回到此目录
文件搜索
?	alias l='ls -l --color=auto'	单字符文件列表命令
?	ls -lrt	按日期显示文件. 参见newest
?	ls /usr/bin | pr -T9 -W$COLUMNS	在当前终端宽度上打印9列输出
 	find -name '*.[ch]' | xargs grep -E 'expr'	在当前目录及其子目录下所有.c和.h文件中寻找'expr'. 参见findrepo
 	find -type f -print0 | xargs -r0 grep -F 'example'	在当前目录及其子目录中的常规文件中查找字符串'example'
 	find -maxdepth 1 -type f | xargs grep -F 'example'	在当前目录下查找字符串'example'
 	find -maxdepth 1 -type d | while read dir; do echo $dir; echo cmd2; done	对每一个找到的文件执行多个命令(使用while循环)
?	find -type f ! -perm -444	寻找所有不可读的文件(对网站有用)
?	find -type d ! -perm -111	寻找不可访问的目录(对网站有用)
?	locate -r 'file[^/]*\.txt'	使用 locate 查找所有符合*file*.txt的文件
?	look reference	在(有序)字典中快速查找
?	grep --color reference /usr/share/dict/words	使字典中匹配的正则表达式高亮
归档 and compression
 	gpg -c file	文件加密
 	gpg file.gpg	文件解密
 	tar -c dir/ | bzip2 > dir.tar.bz2	将目录dir/压缩打包
 	bzip2 -dc dir.tar.bz2 | tar -x	展开压缩包 (对tar.gz文件使用gzip而不是bzip2)
 	tar -c dir/ | gzip | gpg -c | ssh user@remote 'dd of=dir.tar.gz.gpg'	目录dir/压缩打包并放到远程机器上
 	find dir/ -name '*.txt' | tar -c --files-from=- | bzip2 > dir_txt.tar.bz2	将目录dir/及其子目录下所有.txt文件打包
 	find dir/ -name '*.txt' | xargs cp -a --target-directory=dir_txt/ --parents	将目录dir/及其子目录下所有.txt按照目录结构拷贝到dir_txt/
 	( tar -c /dir/to/copy ) | ( cd /where/to/ && tar -x -p )	拷贝目录copy/到目录/where/to/并保持文件属性
 	( cd /dir/to/copy && tar -c . ) | ( cd /where/to/ && tar -x -p )	拷贝目录copy/下的所有文件到目录 /where/to/并保持文件属性
 	( tar -c /dir/to/copy ) | ssh -C user@remote 'cd /where/to/ && tar -x -p' 	拷贝目录copy/到远程目录 /where/to/并保持文件属性
 	dd bs=1M if=/dev/sda | gzip | ssh user@remote 'dd of=sda.gz'	将整个硬盘备份到远程机器上
rsync (使用 --dry-run选项进行测试)
 	rsync -P rsync://rsync.server.com/path/to/file file	只获取diffs.当下载有问题时可以作多次
 	rsync --bwlimit=1000 fromfile tofile	有速度限制的本地拷贝,对I/O有利
 	rsync -az -e ssh --delete ~/public_html/ remote.com:'~/public_html'	镜像网站(使用压缩和加密)
 	rsync -auz -e ssh remote:/dir/ . && rsync -auz -e ssh . remote:/dir/	同步当前目录和远程目录
ssh (安全 Shell)
 	ssh $USER@$HOST command	在$Host主机上以$User用户运行命令(默认命令为Shell)
?	ssh -f -Y $USER@$HOSTNAME xeyes	在名为$HOSTNAME的主机上以$USER用户运行GUI命令
 	scp -p -r $USER@$HOST: file dir/	拷贝到$HOST主机$USER'用户的目录下
 	ssh -g -L 8080:localhost:80 root@$HOST	由本地主机的8080端口转发到$HOST主机的80端口
 	ssh -R 1434:imap:143 root@$HOST	由主机的1434端口转发到imap的143端口
wget (多用途下载工具)
?	(cd cmdline && wget -nd -pHEKk http://www.pixelbeat.org/cmdline.html)	在当前目录中下载指定网页及其相关的文件使其可完全浏览
 	wget -c http://www.example.com/large.file	继续上次未完的下载
 	wget -r -nd -np -l1 -A '*.jpg' http://www.example.com/	批量下载文件到当前目录中
 	wget ftp://remote/file[1-9].iso/	下载FTP站上的整个目录
?	wget -q -O- http://www.pixelbeat.org/timeline.html | grep 'a href' | head	直接处理输出
 	echo 'wget url' | at 01:00	在下午一点钟下载指定文件到当前目录
 	wget --limit-rate=20k url	限制下载速度 (这里限制到20KB/s)
 	wget -nv --spider --force-html -i bookmarks.html	检查文件中的链接是否存在
 	wget --mirror http://www.example.com/	更新网站的本地拷贝(可以方便地用于cron)
网络(ifconfig, route, mii-tool, nslookup 命令皆已过时)
 	ethtool eth0	显示网卡eth0的状态
 	ethtool --change eth0 autoneg off speed 100 duplex full	手动设制网卡速度
 	iwconfig eth1	显示无线网卡eth1的状态
 	iwconfig eth1 rate 1Mb/s fixed	手动设制无线网卡速度
?	iwlist scan	显示无线网络列表
?	ip link show	显示interface列表
 	ip link set dev eth0 name wan	重命名 eth0为wan
 	ip link set dev eth0 up	启动 interface eth0(或关闭)
?	ip addr show	显示网卡的IP地址
 	ip addr add 1.2.3.4/24 brd + dev eth0	添加ip和掩码(255.255.255.0)
?	ip route show	显示路由列表
 	ip route add default via 1.2.3.254	设置默认网关1.2.3.254
?	tc qdisc add dev lo root handle 1:0 netem delay 20msec	增加20ms传输时间到 loopbac