常用基本命令

一.帮助命令

1.1 man获得帮助信息

1)基本语法

man [命令或配置文件] (功能描述:获得帮助信息)

2)显示说明

信息功能
NAME命令的名称和单行描述
SYNOPSIS怎样使用命令
DESCRIPTION命令功能的深入讨论
EXAMPLES怎样使用命令的例子
SEE ALSO相关主题(通常是手册页)

3)案例实操

(1)查看ls 命令的帮助信息

1
[root@hadoop101 ~]# man ls

1.2 help 获得shell 内置命令的帮助信息

​ 一部分基础功能的系统命令是直接内嵌在shell 中的,系统加载启动之后会随着shell一起加载,常驻系统内存中。这部分命令被称为“内置(built-in)命令”;相应的其它命令被称为“外部命令”。

1)基本语法

help 命令(功能描述:获得shell 内置命令的帮助信息)

2)案例实操

(1)查看cd 命令的帮助信息

1
[root@hadoop101 ~]# help cd

1.3 常用快捷键

常用快捷键功能
ctrl + c停止进程
ctrl+l清屏,等同于clear;彻底清屏是:reset
善于用tab 键提示(更重要的是可以防止敲错)
上下键查找执行过的命令

二.文件目录类

2.1 pwd显示当前工作目录的绝对路径

pwd:print working directory 打印工作目录

1)基本语法

pwd (功能描述:显示当前工作目录的绝对路径)

2)案例实操

(1)显示当前工作目录的绝对路径

1
2
[root@hadoop101 ~]# pwd
/root

2.2 ls 列出目录的内容

ls:list 列出目录内容

1)基本语法

ls [选项] [目录或是文件]

2)选项说明

选项功能
-a全部的文件,连同隐藏档( 开头为. 的文件) 一起列出来(常用)
-l长数据串列出,包含文件的属性与权限等等数据;(常用)等价于“ll”

3)显示说明

​ 每行列出的信息依次是: 文件类型与权限链接数文件属主文件属组文件大小用byte来表示建立或最近修改的时间名字

4)案例实操

(1)查看当前目录的所有内容信息

1
2
3
4
5
6
[atguigu@hadoop101 ~]$ ls -al
总用量44
drwx------. 5 atguigu atguigu 4096 5 月27 15:15 .
drwxr-xr-x. 3 root root 4096 5 月27 14:03 ..
drwxrwxrwx. 2 root root 4096 5 月27 14:14 hello
-rwxrw-r--. 1 atguigu atguigu 34 5 月27 14:20 test.txt

2.3 cd 切换目录

cd:Change Directory 切换路径

1)基本语法

cd [参数]

2)参数说明

参数功能
cd 绝对路径切换路径
cd 相对路径切换路径
cd ~或者cd回到自己的家目录
cd -回到上一次所在目录
cd …回到当前目录的上一级目录
cd -P跳转到实际物理路径,而非快捷方式路径

3)案例实操

(1)使用绝对路径切换到root 目录

1
[root@hadoop101 ~]# cd /root/

(2)使用相对路径切换到“公共的”目录

1
[root@hadoop101 ~]# cd 公共的/

(3)表示回到自己的家目录,亦即是/root 这个目录

1
[root@hadoop101 公共的]# cd ~

(4)cd- 回到上一次所在目录

1
[root@hadoop101 ~]# cd -

(5)表示回到当前目录的上一级目录,亦即是“/root/公共的”的上一级目录的意思;

1
[root@hadoop101 公共的]# cd ..

2.4 mkdir 创建一个新的目录

mkdir:Make directory 建立目录

1)基本语法

mkdir [选项] 要创建的目录

2)选项说明

选项功能
-p创建多层目录

3)案例实操

(1)创建一个目录

1
2
[root@hadoop101 ~]# mkdir xiyou
[root@hadoop101 ~]# mkdir xiyou/mingjie

(2)创建一个多级目录

1
[root@hadoop101 ~]# mkdir -p xiyou/dssz/meihouwang

2.5 rmdir 删除一个空的目录

rmdi:Remove directory 移除目录

1)基本语法

rmdir 要删除的空目录

2)案例实操

(1)删除一个空的文件夹

1
[root@hadoop101 ~]# rmdir xiyou/dssz/meihouwang

2.6 touch 创建空文件

1)基本语法

touch 文件名称

2)案例实操

1
[root@hadoop101 ~]# touch xiyou/dssz/sunwukong.txt

2.7 cp 复制文件或目录

1)基本语法

cp [选项] source dest (功能描述:复制source文件到dest)

2)选项说明

选项功能
-r递归复制整个文件夹

3)参数说明

参数功能
source源文件
dest目标文件

4)经验技巧

强制覆盖不提示的方法:\cp

5)案例实操

(1)复制文件

1
[root@hadoop101 ~]# cp xiyou/dssz/suwukong.txt xiyou/mingjie/

(2)递归复制整个文件夹

1
[root@hadoop101 ~]# cp -r xiyou/dssz/ ./

2.8 rm 删除文件或目录

1)基本语法

rm [选项] deleteFile (功能描述:递归删除目录中所有内容)

2)选项说明

选项功能
-r递归删除目录中所有内容
-f强制执行删除操作,而不提示用于进行确认。
-v显示指令的详细执行过程

3)案例实操

(1)删除目录中的内容

1
[root@hadoop101 ~]# rm xiyou/mingjie/sunwukong.txt

(2)递归删除目录中所有内容

1
[root@hadoop101 ~]# rm -rf dssz/

2.9 mv 移动文件与目录或重命名

1)基本语法

(1)mv oldNameFile newNameFile (功能描述:重命名)

(2)mv /temp/movefile /targetFolder (功能描述:移动文件)

2)案例实操

(1)重命名

1
[root@hadoop101 ~]# mv xiyou/dssz/suwukong.txt xiyou/dssz/houge.txt

(2)移动文件

1
[root@hadoop101 ~]# mv xiyou/dssz/houge.txt ./

2.10 cat 查看文件内容

查看文件内容,从第一行开始显示。

1)基本语法

cat [选项] 要查看的文件

2)选项说明

选项功能
-n显示所有行的行号,包括空行。

3)经验技巧

一般查看比较小的文件,一屏幕能显示全的。

4)案例实操

(1)查看文件内容并显示行号

1
[atguigu@hadoop101 ~]$ cat -n houge.txt

2.11 more 文件内容分屏查看器

more 指令是一个基于VI 编辑器的文本过滤器,它以全屏幕的方式按页显示文本文件

的内容。more 指令中内置了若干快捷键,详见操作说明。

1)基本语法

more 要查看的文件

2)操作说明

操作功能
空白键(space)代表向下翻一页;
Enter代表向下翻『一行』;
q代表立刻离开more ,不再显示该文件内容。
Ctrl+F向下滚动一屏
Ctrl+B返回上一屏
=输出当前行的行号
:f输出文件名和当前行的行号

3)案例实操

(1)采用more查看文件

1
[root@hadoop101 ~]# more smartd.conf

2.12 less 分屏显示文件内容

​ less 指令用来分屏查看文件内容,它的功能与more 指令类似,但是比more 指令更加强大,支持各种显示终端。less 指令在显示文件内容时,并不是一次将整个文件加载之后才显示,而是根据显示需要加载内容,对于显示大型文件具有较高的效率。

1)基本语法

less 要查看的文件

2)操作说明

操作功能
空白键(space)向下翻动一页;
pagedown向下翻动一页
pageup向上翻动一页;
/字串向下搜寻『字串』的功能;n:向下查找;N:向上查找;
?字串向上搜寻『字串』的功能;n:向上查找;N:向下查找;
q离开less 这个程序;

3)经验技巧

用SecureCRT时[pagedown]和[pageup]可能会出现无法识别的问题。

4)案例实操

(1)采用less查看文件

1
[root@hadoop101 ~]# less smartd.conf

2.13 echo

echo 输出内容到控制台

1)基本语法

echo [选项] [输出内容]

选项:

-e: 支持反斜线控制的字符转换

控制字符作用
\\输出\本身
\n换行符
\t制表符,也就是Tab 键

2)案例实操

1
2
3
4
[atguigu@hadoop101 ~]$ echo “hello\tworld”
hello\tworld
[atguigu@hadoop101 ~]$ echo -e “hello\tworld”
hello world

2.14 head 显示文件头部内容

head 用于显示文件的开头部分内容,默认情况下head 指令显示文件的前10 行内容。

1)基本语法

head 文件(功能描述:查看文件头10行内容)

head -n 5 文件(功能描述:查看文件头5行内容,5可以是任意行数)

2)选项说明

选项功能
-n<行数>指定显示头部内容的行数

3)案例实操

(1)查看文件的头2行

1
[root@hadoop101 ~]# head -n 2 smartd.conf

2.15 tail 输出文件尾部内容

​ tail 用于输出文件中尾部的内容,默认情况下tail 指令显示文件的后10 行内容。

1) 基本语法

(1)tail 文件(功能描述:查看文件尾部10行内容)

(2)tail -n 5 文件(功能描述:查看文件尾部5行内容,5可以是任意行数)

(3)tail -f 文件(功能描述:实时追踪该文档的所有更新)

2) 选项说明

选项功能
-n<行数>输出文件尾部n 行内容
-f显示文件最新追加的内容,监视文件变化

3)案例实操

(1)查看文件尾1 行内容

1
[root@hadoop101 ~]# tail -n 1 smartd.conf

(2)实时追踪该档的所有更新

1
[root@hadoop101 ~]# tail -f houge.txt

2.16 > 输出重定向和>> 追加

1)基本语法

(1)ls -l > 文件(功能描述:列表的内容写入文件a.txt 中(覆盖写))

(2)ls -al >> 文件(功能描述:列表的内容追加到文件aa.txt 的末尾)

(3)cat 文件1 > 文件2 (功能描述:将文件1 的内容覆盖到文件2)

(4)echo “内容” >> 文件

2)案例实操

(1)将ls 查看信息写入到文件中

1
[root@hadoop101 ~]# ls -l>houge.txt

(2)将ls 查看信息追加到文件中

1
[root@hadoop101 ~]# ls -l>>houge.txt

(3)采用echo 将hello 单词追加到文件中

1
[root@hadoop101 ~]# echo hello>>houge.txt

2.17 ln 软链接

​ 软链接也称为符号链接,类似于windows 里的快捷方式,有自己的数据块,主要存放了链接其他文件的路径。

1)基本语法

ln -s [原文件或目录] [软链接名] (功能描述:给原文件创建一个软链接)

2)经验技巧

删除软链接: rm -rf 软链接名,而不是rm -rf 软链接名/

如果使用rm -rf 软链接名/ 删除,会把软链接对应的真实目录下内容删掉

查询:通过ll 就可以查看,列表属性第1 位是l,尾部会有位置指向。

3)案例实操

(1)创建软连接

1
2
3
4
5
[root@hadoop101 ~]# mv houge.txt xiyou/dssz/
[root@hadoop101 ~]# ln -s xiyou/dssz/houge.txt ./houzi
[root@hadoop101 ~]# ll
lrwxrwxrwx. 1 root root 20 617 12:56 houzi ->
xiyou/dssz/houge.txt

(2)删除软连接(注意不要写最后的/)

1
[root@hadoop101 ~]# rm -rf houzi

(3)进入软连接实际物理路径

1
2
[root@hadoop101 ~]# ln -s xiyou/dssz/ ./dssz
[root@hadoop101 ~]# cd -P dssz/

2.18 history 查看已经执行过历史命令

1)基本语法

history (功能描述:查看已经执行过历史命令)

2)案例实操

(1)查看已经执行过的历史命令

1
[root@hadoop101 test1]# history

三.时间日期类

1)基本语法

date [OPTION]… [+FORMAT]

2)选项说明

选项功能
-d<时间字符串>显示指定的“时间字符串”表示的时间,而非当前时间
-s<日期时间>设置系统日期时间

3)参数说明

参数功能
<+日期时间格式>指定显示时使用的日期时间格式

3.1 date 显示当前时间

1)基本语法

(1)date (功能描述:显示当前时间)
(2)date +%Y (功能描述:显示当前年份)
(3)date +%m (功能描述:显示当前月份)
(4)date +%d (功能描述:显示当前是哪一天)
(5)date “+%Y-%m-%d %H:%M:%S” (功能描述:显示年月日时分秒)

2)案例实操

(1)显示当前时间信息

1
2
[root@hadoop101 ~]# date
20170619 日星期一20:53:30 CST

(2)显示当前时间年月日

1
2
[root@hadoop101 ~]# date +%Y%m%d
20170619

(3)显示当前时间年月日时分秒

1
2
[root@hadoop101 ~]# date "+%Y-%m-%d %H:%M:%S"
2017-06-19 20:54:58

3.2 date 显示非当前时间

1)基本语法

(1)date -d ‘1 days ago’ (功能描述:显示前一天时间)
(2)date -d ‘-1 days ago’ (功能描述:显示明天时间)

2)案例实操

(1)显示前一天

1
2
[root@hadoop101 ~]# date -d '1 days ago'
20170618 日星期日21:07:22 CST

(2)显示明天时间

1
2
[root@hadoop101 ~]#date -d '-1 days ago'
20170620 日星期日21:07:22 CST

3.3 date 设置系统时间

1)基本语法

date -s 字符串时间

2)案例实操

(1)设置系统当前时间

1
[root@hadoop101 ~]# date -s "2017-06-19 20:52:18"

3.4 cal 查看日历

1)基本语法

cal [选项] (功能描述:不加选项,显示本月日历)

2)选项说明

选项功能
具体某一年显示这一年的日历

3)案例实操

(1)查看当前月的日历

1
[root@hadoop101 ~]# cal

(2)查看2017 年的日历

1
[root@hadoop101 ~]# cal 2017

四.用户管理命令

4.1 useradd 添加新用户

1)基本语法

useradd 用户名(功能描述:添加新用户)

useradd -g 组名用户名(功能描述:添加新用户到某个组)

2)案例实操

(1)添加一个用户

1
2
[root@hadoop101 ~]# useradd tangseng
[root@hadoop101 ~]#ll /home/

4.2 passwd 设置用户密码

1)基本语法

passwd 用户名(功能描述:设置用户密码)

2)案例实操

(1)设置用户的密码

1
[root@hadoop101 ~]# passwd tangseng

4.3 id 查看用户是否存在

1)基本语法

id 用户名

2)案例实操

(1)查看用户是否存在

1
[root@hadoop101 ~]#id tangseng

4.4 cat /etc/passwd 查看创建了哪些用户

1)案例实操

1
[root@hadoop101 ~]# cat /etc/passwd

4.5 su 切换用户

su: swith user 切换用户

1)基本语法

su 用户名称(功能描述:切换用户,只能获得用户的执行权限,不能获得环境变量)

su - 用户名称(功能描述:切换到用户并获得该用户的环境变量及执行权限)

2)案例实操

(1)切换用户

1
2
3
4
5
6
7
8
9
10
11
[root@hadoop101 ~]#su tangseng
[root@hadoop101 ~]#echo $PATH
/usr/lib64/qt-
3.3/bin:/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/root/b
in
[root@hadoop101 ~]#exit
[root@hadoop101 ~]#su - tangseng
[root@hadoop101 ~]#echo $PATH
/usr/lib64/qt-
3.3/bin:/usr/local/bin:/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/sbin:/home/t
angseng/bin

4.6 userdel 删除用户

1)基本语法

(1)userdel 用户名(功能描述:删除用户但保存用户主目录)

(2)userdel -r 用户名(功能描述:用户和用户主目录,都删除)

2)选项说明

选项功能
-r删除用户的同时,删除与用户相关的所有文件。

3)案例实操

(1)删除用户但保存用户主目录

1
2
[root@hadoop101 ~]#userdel tangseng
[root@hadoop101 ~]#ll /home/

(2)删除用户和用户主目录,都删除

1
2
3
4
[root@hadoop101 ~]#useradd zhubajie
[root@hadoop101 ~]#ll /home/
[root@hadoop101 ~]#userdel -r zhubajie
[root@hadoop101 ~]#ll /home/

4.7 who 查看登录用户信息

1)基本语法

(1)whoami (功能描述:显示自身用户名称)

(2)who am i (功能描述:显示登录用户的用户名以及登陆时间)

2)案例实操

(1)显示自身用户名称

1
[root@hadoop101 opt]# whoami

(2)显示登录用户的用户名

1
[root@hadoop101 opt]# who am i

4.8 sudo 设置普通用户具有root 权限

1)添加atguigu 用户,并对其设置密码。

1
2
[root@hadoop101 ~]#useradd atguigu
[root@hadoop101 ~]#passwd atguigu

2)修改配置文件

1
[root@hadoop101 ~]#vi /etc/sudoers

修改/etc/sudoers 文件,找到下面一行(91 行),在root 下面添加一行,如下所示:

1
2
3
## Allow root to run any commands anywhere
root ALL=(ALL) ALL
atguigu ALL=(ALL) ALL

或者配置成采用sudo 命令时,不需要输入密码

1
2
3
## Allow root to run any commands anywhere
root ALL=(ALL) ALL
atguigu ALL=(ALL) NOPASSWD:ALL

修改完毕,现在可以用atguigu 帐号登录,然后用命令sudo ,即可获得root 权限进行操作。

3)案例实操

(1)用普通用户在/opt 目录下创建一个文件夹

1
2
[atguigu@hadoop101 opt]$ sudo mkdir module
[root@hadoop101 opt]# chown atguigu:atguigu module/

4.9 usermod 修改用户

1)基本语法

usermod -g 用户组用户名

2)选项说明

选项功能
-g修改用户的初始登录组,给定的组必须存在。默认组id 是1。

3)案例实操

(1)将用户加入到用户组

1
[root@hadoop101 opt]# usermod -g root zhubajie

五.用户组管理命令

​ 每个用户都有一个用户组,系统可以对一个用户组中的所有用户进行集中管理。不同Linux 系统对用户组的规定有所不同,
​ 如Linux下的用户属于与它同名的用户组,这个用户组在创建用户时同时创建。
​ 用户组的管理涉及用户组的添加、删除和修改。组的增加、删除和修改实际上就是对/etc/group文件的更新。

5.1 groupadd 新增组

1)基本语法

groupadd 组名

2)案例实操

(1)添加一个xitianqujing组

1
[root@hadoop101 opt]#groupadd xitianqujing

5.2 groupdel 删除组

1)基本语法

groupdel 组名

2)案例实操

(1)删除xitianqujing组

1
[root@hadoop101 opt]# groupdel xitianqujing

5.3 groupmod 修改组

1)基本语法

groupmod -n 新组名老组名

1)选项说明

选项功能
-n<新组名>指定工作组的新组名

3)案例实操

(1)修改atguigu组名称为atguigu1

1
2
[root@hadoop101 ~]#groupadd xitianqujing
[root@hadoop101 ~]# groupmod -n xitian xitianqujing

5.4 cat /etc/group 查看创建了哪些组

1)基本操作

1
[root@hadoop101 atguigu]# cat /etc/group

六.文件权限类

6.1 文件属性

​ Linux系统是一种典型的多用户系统,不同的用户处于不同的地位,拥有不同的权限。为了保护系统的安全性,Linux系统对不同的用户访问同一文件(包括目录文件)的权限做了不同的规定。在Linux中我们可以使用ll或者ls -l命令来显示一个文件的属性以及文件所属的用户和组。

1)从左到右的10 个字符表示,如表所示

文件类型属主权限属组权限其他用户权限
01 2 34 5 67 8 9
dr w xr - xr - x
目录文件读 写 执行读 写 执行读 写 执行

​ 如果没有权限,就会出现减号[ - ]而已。从左至右用0-9这些数字来表示:

(1)0 首位表示类型

​ 在Linux中第一个字符代表这个文件是目录、文件或链接文件等等

- 代表文件

d 代表目录

l 链接文档(link file);

(2)第1-3位确定属主(该文件的所有者)拥有该文件的权限。—User

(3)第4-6位确定属组(所有者的同组用户)拥有该文件的权限,—Group

(4)第7-9位确定其他用户拥有该文件的权限—Other

2)rwx 作用文件和目录的不同解释
(1)作用到文件:

​ [ r ]代表可读(read): 可以读取,查看

​ [ w ]代表可写(write): 可以修改,但是不代表可以删除该文件,删除一个文件的前

提条件是对该文件所在的目录有写权限,才能删除该文件.

​ [ x ]代表可执行(execute):可以被系统执行

(2)作用到目录:

​ [ r ]代表可读(read): 可以读取,ls查看目录内容

​ [ w ]代表可写(write): 可以修改,目录内创建+删除+重命名目录

​ [ x ]代表可执行(execute):可以进入该目录

3)案例实操

1
2
3
4
5
[root@hadoop101 ~]# ll
总用量104
-rw-------. 1 root root 1248 1 月8 17:36 anaconda-ks.cfg
drwxr-xr-x. 2 root root 4096 1 月12 14:02 dssz
lrwxrwxrwx. 1 root root 20 1 月12 14:32 houzi -> xiyou/dssz/houge.tx

文件基本属性介绍

1
2
3
4
5
6
7
8
9
10
-rw-rw-r--. 1 root root 1248 18 17:36 anaconda-ks.cfg
- 文件类型与权限
1 链接数
root 文件属主
root 文件属组
1248 文件大小
17:36 建立或最近修改时间
anaconda-ks.cfg 文件名字
1)如果查看到是文件:链接数指的是硬链接个数。
2)如果查看的是文件夹:链接数指的是子文件夹个数。

6.2 chmod 改变权限

1)基本语法

如表所示

文件类型属主权限属组权限其他用户权限
ugo
01 2 34 5 67 8 9
dr w xr - xr - x
目录文件读 写 执行读 写 执行读 写 执行

第一种方式变更权限

1
chmod [{ugoa}{+-=}{rwx}] 文件或目录

第二种方式变更权限

1
chmod [mode=421 ] [文件或目录]

2)经验技巧

u:所有者 g:所有组 o:其他人 a:所有人(u、g、o 的总和)

r=4 w=2 x=1 rwx=4+2+1=7

3)案例实操

(1)修改文件使其所属主用户具有执行权限

1
2
[root@hadoop101 ~]# cp xiyou/dssz/houge.txt ./
[root@hadoop101 ~]# chmod u+x houge.txt

(2)修改文件使其所属组用户具有执行权限

1
[root@hadoop101 ~]# chmod g+x houge.txt

(3)修改文件所属主用户执行权限,并使其他用户具有执行权限

1
[root@hadoop101 ~]# chmod u-x,o+x houge.txt

(4)采用数字的方式,设置文件所有者、所属组、其他用户都具有可读可写可执行权限。

1
[root@hadoop101 ~]# chmod 777 houge.txt

(5)修改整个文件夹里面的所有文件的所有者、所属组、其他用户都具有可读可写可执行权限。

1
[root@hadoop101 ~]# chmod -R 777 xiyou/

6.3 chown 改变所有者

1)基本语法

chown [选项] [最终用户] [文件或目录] (功能描述:改变文件或者目录的所有者)

2)选项说明

选项功能
-R递归操作

3)案例实操

(1)修改文件所有者

1
2
3
[root@hadoop101 ~]# chown atguigu houge.txt
[root@hadoop101 ~]# ls -al
-rwxrwxrwx. 1 atguigu root 551 523 13:02 houge.txt

(2)递归改变文件所有者和所有组

1
2
3
4
5
[root@hadoop101 xiyou]# ll
drwxrwxrwx. 2 root root 4096 9 月3 21:20 xiyou
[root@hadoop101 xiyou]# chown -R atguigu:atguigu xiyou/
[root@hadoop101 xiyou]# ll
drwxrwxrwx. 2 atguigu atguigu 4096 9 月3 21:20 xiyou

6.4 chgrp 改变所属组

1)基本语法

chgrp [最终用户组] [文件或目录] (功能描述:改变文件或者目录的所属组)
2)案例实操

(1)修改文件的所属组

1
2
3
[root@hadoop101 ~]# chgrp root houge.txt
[root@hadoop101 ~]# ls -al
-rwxrwxrwx. 1 atguigu root 551 523 13:02 houge.txt

七.搜索查找类

7.1 find 查找文件或者目录

​ find 指令将从指定目录向下递归地遍历其各个子目录,将满足条件的文件显示在终端。

1)基本语法

find [搜索范围] [选项]

2)选项说明

选项功能
-name<查询方式>按照指定的文件名查找模式查找文件
-user<用户名>查找属于指定用户名所有文件
-size<文件大小>按照指定的文件大小查找文件,单位为:
b —— 块(512 字节)
c —— 字节
w —— 字(2 字节)
k —— 千字节
M —— 兆字节
G —— 吉字节

3)案例实操

(1)按文件名:根据名称查找/目录下的filename.txt文件。

1
[root@hadoop101 ~]# find xiyou/ -name "*.txt"

(2)按拥有者:查找/opt目录下,用户名称为-user的文件

1
[root@hadoop101 ~]# find xiyou/ -user atguigu

(3)按文件大小:在/home目录下查找大于200m的文件(+n 大于 -n小于 n等于)

1
[root@hadoop101 ~]find /home -size +204800

7.2 locate 快速定位文件路径

​ locate 指令利用事先建立的系统中所有文件名称及路径的locate 数据库实现快速定位给定的文件。Locate 指令无需遍历整个文件系统,查询速度较快。为了保证查询结果的准确度,管理员必须定期更新locate 时刻。

1)基本语法

​ locate 搜索文件

2)经验技巧

​ 由于locate 指令基于数据库进行查询,所以第一次运行前,必须使用updatedb 指令创建locate 数据库。

3)案例实操

(1)查询文件夹

1
2
[root@hadoop101 ~]# updatedb
[root@hadoop101 ~]#locate tmp

7.3 grep 过滤查找及“|”管道符

管道符,“|”,表示将前一个命令的处理结果输出传递给后面的命令处理

1)基本语法

grep 选项查找内容源文件

2)选项说明

选项功能
-n显示匹配行及行号。

3)案例实操

(1)查找某文件在第几行

1
[root@hadoop101 ~]# ls | grep -n test

八.压缩和解压类

8.1 gzip/gunzip 压缩

1)基本语法

gzip 文件(功能描述:压缩文件,只能将文件压缩为*.gz 文件)

gunzip 文件.gz (功能描述:解压缩文件命令)

2)经验技巧

(1)只能压缩文件不能压缩目录
(2)不保留原来的文件
(3)同时多个文件会产生多个压缩包

3)案例实操

(1)gzip压缩

1
2
3
4
5
[root@hadoop101 ~]# ls
test.java
[root@hadoop101 ~]# gzip houge.txt
[root@hadoop101 ~]# ls
houge.txt.gz

(2)gunzip解压缩文件

1
2
3
[root@hadoop101 ~]# gunzip houge.txt.gz
[root@hadoop101 ~]# ls
houge.txt

8.2 zip/unzip 压缩

1)基本语法

zip [选项] XXX.zip 将要压缩的内容(功能描述:压缩文件和目录的命令)

unzip [选项] XXX.zip (功能描述:解压缩文件)

2)选项说明

zip 选项功能
-r压缩目录
unzip 选项功能
-d<目录>指定解压后文件的存放目录

3)经验技巧

zip 压缩命令在windows/linux都通用,可以压缩目录且保留源文件。

4)案例实操

(1)压缩houge.txt 和bailongma.txt,压缩后的名称为mypackage.zip

1
2
3
4
5
6
[root@hadoop101 opt]# touch bailongma.txt
[root@hadoop101 ~]# zip mypackage.zip houge.txt bailongma.txt
adding: houge.txt (stored 0%)
adding: bailongma.txt (stored 0%)
[root@hadoop101 opt]# ls
houge.txt bailongma.txt mypackage.zip

(2)解压mypackage.zip

1
2
3
4
5
6
[root@hadoop101 ~]# unzip mypackage.zip
Archive: houma.zip
extracting: houge.txt
extracting: bailongma.txt
[root@hadoop101 ~]# ls
houge.txt bailongma.txt mypackage.zip

(3)解压mypackage.zip到指定目录-d

1
2
[root@hadoop101 ~]# unzip mypackage.zip -d /opt
[root@hadoop101 ~]# ls /opt/

8.3 tar 打包

1)基本语法

tar [选项] XXX.tar.gz 将要打包进去的内容(功能描述:打包目录,压缩后的文件格式.tar.gz)

2)选项说明

选项功能
-c产生.tar 打包文件
-v显示详细信息
-f指定压缩后的文件名
-z打包同时压缩
-x解包.tar 文件
-C解压到指定目录

3)案例实操

(1)压缩多个文件

1
2
3
4
5
[root@hadoop101 opt]# tar -zcvf houma.tar.gz houge.txt bailongma.txt
houge.txt
bailongma.txt
[root@hadoop101 opt]# ls
houma.tar.gz houge.txt bailongma.txt

(2)压缩目录

1
2
3
4
5
[root@hadoop101 ~]# tar -zcvf xiyou.tar.gz xiyou/
xiyou/
xiyou/mingjie/
xiyou/dssz/
xiyou/dssz/houge.txt

(3)解压到当前目录

1
[root@hadoop101 ~]# tar -zxvf houma.tar.gz

(4)解压到指定目录

1
2
[root@hadoop101 ~]# tar -zxvf xiyou.tar.gz -C /opt
[root@hadoop101 ~]# ll /opt/

九.磁盘查看和分区类

9.1 du 查看文件和目录占用的磁盘空间

du: disk usage 磁盘占用情况

1)基本语法

du 目录/文件(功能描述:显示目录下每个子目录的磁盘使用情况)

2)选项说明

选项功能
-h以人们较易阅读的GBytes, MBytes, KBytes 等格式自行显示;
-a不仅查看子目录大小,还要包括文件
-c显示所有的文件和子目录大小后,显示总和
-s只显示总和
–max-depth=n指定统计子目录的深度为第n 层

3)案例实操

(1)查看当前用户主目录占用的磁盘空间大小

1
2
[root@hadoop101 ~]# du -sh
166M

9.2 df 查看磁盘空间使用情况

df: disk free 空余磁盘

1)基本语法

df 选项(功能描述:列出文件系统的整体磁盘使用量,检查文件系统的磁盘空间占用情况)

2)选项说明

选项功能
-h以人们较易阅读的GBytes, MBytes, KBytes 等格式自行显示;

3)案例实操

(1)查看磁盘使用情况

1
2
3
4
5
[root@hadoop101 ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/sda2 15G 3.5G 11G 26% /
tmpfs 939M 224K 939M 1% /dev/shm
/dev/sda1 190M 39M 142M 22% /boot

9.3 lsblk 查看设备挂载情况

1)基本语法

lsblk (功能描述:查看设备挂载情况)

2)选项说明

选项功能
-f查看详细的设备挂载情况,显示文件系统信息

9.4 mount/umount 挂载/卸载

​ 对于Linux用户来讲,不论有几个分区,分别分给哪一个目录使用,它总归就是一个根目录、一个独立且唯一的文件结构。
​ Linux中每个分区都是用来组成整个文件系统的一部分,它在用一种叫做“挂载”的处理方法,它整个文件系统中包含了一整套的文件和目录,并将一个分区和一个目录联系起来,要载入的那个分区将使它的存储空间在这个目录下获得。
1)挂载前准备(必须要有光盘或者已经连接镜像文件)

2)基本语法

mount [-t vfstype] [-o options] device dir (功能描述:挂载设备)

umount 设备文件名或挂载点(功能描述:卸载设备)

3)参数说明

参数功能
-t vfstype指定文件系统的类型,通常不必指定。mount 会自动选择正确的类型。
常用类型有:
光盘或光盘镜像:iso9660
DOS fat16 文件系统:msdos
Windows 9x fat32 文件系统:vfat
Windows NT ntfs 文件系统:ntfs
Mount Windows 文件网络共享:smbfs
UNIX(LINUX) 文件网络共享:nfs
-o options主要用来描述设备或档案的挂接方式。常用的参数有:
loop:用来把一个文件当成硬盘分区挂接上系统
ro:采用只读方式挂接设备
rw:采用读写方式挂接设备
iocharset:指定访问文件系统所用字符集
device要挂接(mount)的设备
dir设备在系统上的挂接点(mount point)

4)案例实操

(1)挂载光盘镜像文件

1
2
3
4
[root@hadoop101 ~]# mkdir /mnt/cdrom/ 建立挂载点
[root@hadoop101 ~]# mount -t iso9660 /dev/cdrom /mnt/cdrom/ 设备/dev/cdrom
挂载到挂载点: /mnt/cdrom 中
[root@hadoop101 ~]# ll /mnt/cdrom/

(2)卸载光盘镜像文件

1
[root@hadoop101 ~]# umount /mnt/cdrom

5)设置开机自动挂载

1
[root@hadoop101 ~]# vi /etc/fstab

9.5 fdisk 分区

1)基本语法

fdisk -l (功能描述:查看磁盘分区详情)

fdisk 硬盘设备名(功能描述:对新增硬盘进行分区操作)

2)选项说明

选项功能
-l显示所有硬盘的分区列表

3)经验技巧

该命令必须在root 用户下才能使用

4)功能说明

(1)Linux 分区

Device:分区序列

Boot:引导

Start:从X磁柱开始

End:到Y磁柱结束

Blocks:容量

Id:分区类型ID

System:分区类型

(2)分区操作按键说明

m:显示命令列表

p:显示当前磁盘分区

n:新增分区

w:写入分区信息并退出

q:不保存分区信息直接退出

5)案例实操

(1)查看系统分区情况

1
2
3
4
5
6
7
8
9
10
11
12
[root@hadoop101 /]# fdisk -l
Disk /dev/sda: 21.5 GB, 21474836480 bytes
255 heads, 63 sectors/track, 2610 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x0005e654
Device Boot Start End Blocks Id System
/dev/sda1 * 1 26 204800 83 Linux
Partition 1 does not end on cylinder boundary.
/dev/sda2 26 1332 10485760 83 Linux
/dev/sda3 1332 1593 2097152 82 Linux swap / Solaris

十.进程管理类

​ 进程是正在执行的一个程序或命令,每一个进程都是一个运行的实体,都有自己的地址空间,并占用一定的系统资源。

10.1 ps 查看当前系统进程状态

ps:process status 进程状态

1)基本语法

ps aux | grep xxx (功能描述:查看系统中所有进程)

ps -ef | grep xxx (功能描述:可以查看子父进程之间的关系)

2)选项说明

选项功能
a列出带有终端的所有用户的进程
x列出当前用户的所有进程,包括没有终端的进程
u面向用户友好的显示风格
-e列出所有进程
-u列出某个用户关联的所有进程
-f显示完整格式的进程列表

3)功能说明

(1)ps aux 显示信息说明

​ USER:该进程是由哪个用户产生的

PID:进程的ID 号

%CPU:该进程占用CPU 资源的百分比,占用越高,进程越耗费资源;

%MEM:该进程占用物理内存的百分比,占用越高,进程越耗费资源;

​ VSZ:该进程占用虚拟内存的大小,单位KB;

​ RSS:该进程占用实际物理内存的大小,单位KB;

​ TTY:该进程是在哪个终端中运行的。对于CentOS 来说,tty1 是图形化终端,tty2-tty6 是本地的字符界面终端。pts/0-255 代表虚拟终端。

​ STAT:进程状态。常见的状态有:R:运行状态、S:睡眠状态、T:暂停状态、Z:僵尸状态、s:包含子进程、l:多线程、+:前台显示

​ START:该进程的启动时间

​ TIME:该进程占用CPU 的运算时间,注意不是系统时间

​ COMMAND:产生此进程的命令名

(2)ps -ef 显示信息说明

​ UID:用户ID

PID:进程ID

PPID:父进程ID

​ C:CPU 用于计算执行优先级的因子。数值越大,表明进程是CPU 密集型运算,执行优先级会降低;数值越小,表明进程是I/O 密集型运算,执行优先级会提高

​ STIME:进程启动的时间

​ TTY:完整的终端名称

​ TIME:CPU 时间

​ CMD:启动进程所用的命令和参数

4)经验技巧

如果想查看进程的CPU 占用率和内存占用率,可以使用aux;

如果想查看进程的父进程ID 可以使用ef;

5)案例实操

(1)查看进程的CPU 占用率和内存占用率

1
[root@hadoop101 datas]# ps aux

(2)查看进程的父进程ID

1
[root@hadoop101 datas]# ps -ef

10.2 kill 终止进程

1)基本语法

kill [选项] 进程号(功能描述:通过进程号杀死进程)

killall 进程名称(功能描述:通过进程名称杀死进程,也支持通配符,这在系统因负载过大而变得很慢时很有用)

2)选项说明

选项功能
-9表示强迫进程立即停止

3)案例实操

(1)杀死浏览器进程

1
[root@hadoop101 桌面]# kill -9 5102

(2)通过进程名称杀死进程

1
[root@hadoop101 桌面]# killall firefox

10.3 pstree 查看进程树

1)基本语法

pstree [选项]

2)选项说明

选项功能
-p显示进程的PID
-u显示进程的所属用户

3)案例实操

(1)显示进程pid

1
[root@hadoop101 datas]# pstree -p

(2)显示进程所属用户

1
[root@hadoop101 datas]# pstree -u

10.4 top 实时监控系统进程状态

1)基本命令

top [选项]

2)选项说明

选项功能
-d 秒数指定top 命令每隔几秒更新。默认是3 秒在top 命令的交互模式当中可以执行的命令:
-i使top 不显示任何闲置或者僵死进程。
-p通过指定监控进程ID 来仅仅监控某个进程的状态。

3) 操作说明

操作功能
P以CPU 使用率排序,默认就是此项
M以内存的使用率排序
N以PID 排序
q退出top

4)查询结果字段解释
第一行信息为任务队列信息

内容说明
12:26:46系统当前时间
up 1 day, 13:32系统的运行时间,本机已经运行1 天13 小时32 分钟
2 users当前登录了两个用户
load average: 0.00, 0.00, 0.00系统在之前1 分钟,5 分钟,15 分钟的平均负载。
一般认为小于1 时,负载较小。如果大于1
系统已经超出负荷。

第二行为进程信息

内容说明
Tasks: 95 total系统中的进程总数
1 running正在运行的进程数
94 sleeping睡眠的进程
0 stopped正在停止的进程
0 zombie僵尸进程。如果不是0,需要手工检查僵尸进程

第三行为CPU 信息

内容说明
Cpu(s): 0.1%us用户模式占用的CPU 百分比
0.1%sy系统模式占用的CPU 百分比
0.0%ni改变过优先级的用户进程占用的CPU 百分比
99.7%id空闲CPU 的CPU 百分比
0.1%wa等待输入/输出的进程的占用CPU 百分比
0.0%hi硬中断请求服务占用的CPU 百分比
0.1%si软中断请求服务占用的CPU 百分比
0.0%stst(Steal time)虚拟时间百分比。就是当有虚拟机时
虚拟CPU 等待实际CPU 的时间百分比。

第四行为物理内存信息

内容说明
Mem: 625344k total物理内存的总量,单位KB
571504k used已经使用的物理内存数量
53840k free空闲的物理内存数量,我们使用的是虚拟机,总
共只分配了628MB 内存,所以只有53MB 的空
闲内存了
65800k buffers作为缓冲的内存数量

第五行为交换分区(swap)信息

内容说明
Swap: 524280k total交换分区(虚拟内存)的总大小
0k used已经使用的交互分区的大小
524280k free空闲交换分区的大小
409280k cached作为缓存的交互分区的大小

5)案例实操

1
2
3
[root@hadoop101 atguigu]# top -d 1
[root@hadoop101 atguigu]# top -i
[root@hadoop101 atguigu]# top -p 2575

执行上述命令后,可以按P、M、N 对查询出的进程结果进行排序。

10.5 netstat 显示网络状态和端口占用信息

1)基本语法

netstat -anp | grep 进程号(功能描述:查看该进程网络信息)

netstat –nlp | grep 端口号(功能描述:查看网络端口号占用情况)

2)选项说明

选项功能
-a显示所有正在监听(listen)和未监听的套接字(socket)
-n拒绝显示别名,能显示数字的全部转化成数字
-l仅列出在监听的服务状态
-p表示显示哪个进程在调用

3)案例实操
(1)通过进程号查看sshd进程的网络信息

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
[root@hadoop101 hadoop-2.7.2]# netstat -anp | grep sshd
tcp 0 0 0.0.0.0:22 0.0.0.0:* LISTEN
951/sshd
tcp 0 0 192.168.202.100:22 192.168.202.1:57741
ESTABLISHED 3380/sshd: root@pts
tcp 0 52 192.168.202.100:22 192.168.202.1:57783
ESTABLISHED 3568/sshd: root@pts
tcp 0 0 192.168.202.100:22 192.168.202.1:57679
ESTABLISHED 3142/sshd: root@pts
tcp6 0 0 :::22 :::* LISTEN
951/sshd
unix 2 [ ] DGRAM 39574 3568/sshd:
root@pts
unix 2 [ ] DGRAM 37452 3142/sshd:
root@pts
unix 2 [ ] DGRAM 48651 3380/sshd:
root@pts
unix 3 [ ] STREAM CONNECTED 21224 951/sshd

(2)查看某端口号是否被占用

1
2
3
4
5
6
7
[root@hadoop101 桌面]# netstat -nltp | grep 22
tcp 0 0 192.168.122.1:53 0.0.0.0:* LISTEN
1324/dnsmasq
tcp 0 0 0.0.0.0:22 0.0.0.0:* LISTEN
951/sshd
tcp6 0 0 :::22 :::* LISTEN
951/sshd

十一.crontab 系统定时任务

11.1 crontab 服务管理

1)重新启动crond 服务

1
[root@hadoop101 ~]# systemctl restart crond

11.2 crontab 定时任务设置

1)基本语法

crontab [选项]

2)选项说明

选项功能
-e编辑crontab 定时任务
-l查询crontab 任务
-r删除当前用户所有的crontab 任务

3)参数说明

1
[root@hadoop101 ~]# crontab -e

(1)进入crontab 编辑界面。会打开vim 编辑你的工作。

1
* * * * * 执行的任务
项目含义范围
第一个“*”一小时当中的第几分钟0-59
第二个“*”一天当中的第几小时0-23
第三个“*”一个月当中的第几天1-31
第四个“*”一年当中的第几月1-12
第五个“*”一周当中的星期几0-7 ( 0 和7 都代表星期日)

(2)特殊符号

特殊符号含义
*代表任何时间。比如第一个“*”就代表一小时中每分钟
都执行一次的意思。
代表不连续的时间。比如“0 8,12,16 * * * 命令”,就代表
在每天的8 点0 分,12 点0 分,16 点0 分都执行一次命令
-代表连续的时间范围。比如“0 5 * * 1-6 命令”,代表在
周一到周六的凌晨5 点0 分执行命令
*/n代表每隔多久执行一次。比如“*/10 * * * * 命令”,代
表每隔10 分钟就执行一遍命令

(3)特定时间执行命令

时间含义
45 22 * * * 命令每天22 点45 分执行命令
0 17 * * 1 命每周1 的17 点0 分执行命令
0 5 1,15 * * 命令每月1 号和15 号的凌晨5 点0 分执行命令
40 4 * * 1-5 命令每周一到周五的凌晨4 点40 分执行命令
*/10 4 * * * 命令每天的凌晨4 点,每隔10 分钟执行一次命令
0 0 1,15 * 1 命令每月1 号和15 号,每周1 的0 点0 分都会执行命令。注
意:星期几和几号最好不要同时出现,因为他们定义的都
是天。非常容易让管理员混乱。

4)案例实操

(1)每隔1 分钟,向/root/bailongma.txt 文件中添加一个11 的数字

1
*/1 * * * * /bin/echo ”11” >> /root/bailongma.txt