Linux shell

shell

  • 一. Shell概述

  • 二. Shell解析器

    1. Linux提供的Shell解析器有:
      1. bash和sh的关系
      1. Centos默认的解析器是bash
  • 三. Shell脚本入门

  • 1.脚本格式

    • 2.第一个Shell脚本:helloworld
    • 3.第二个Shell脚本:多命令处理
  • 四. Shell中的变量

    1. 系统变量
      1. 自定义变量
    • 3 特殊变量:$n
      1. 特殊变量:$#
      1. 特殊变量:$*、$@
      1. 特殊变量:$?
  • 五. 运算符

  • 1.基本语法

    • 2.案例实操:
  • 六. 条件判断

  • 1.基本语法

      1. 常用判断条件
  • 七. 流程控制(重点)

    1. if 判断
  • 1.1 基本语法 * 1.2 案例实操

    • 2 case 语句
  • 2.1 基本语法 * 2.2 案例实操

      1. for 循环
  • 3.1 基本语法1

    • 3.2 案例实操
  • 3.3 基本语法2 * 3.4 案例实操

      1. while 循环
  • 4.1 基本语法 * 4.2 案例实操

  • 八. read读取控制台输入

  • 1.基本语法

    • 2.案例实操
  • 九. 函数

    1. 系统函数
  • 1.1 basename基本语法与案例 * 1.2 dirname基本语法与案例

      1. 自定义函数
  • 2.1 基本语法 * 2.2 经验技巧 * 2.3 案例实操

  • 十. Shell工具(重点)

    1. cut
    • 1.1 基本用法
    • 1.2 选项参数说明
  • 1.3 案例实操

      1. sed
  • 2.1 基本用法 * 2.2 选项参数说明 * 2.3 命令功能描述 * 2.4 案例实操

      1. awk
  • 3.1 基本用法 * 3.2 选项参数说明 * 3.3 案例实操 * 3.4 awk的内置变量 * 3.5 案例实操

      1. sort
  • 4.1 基本语法 * 4.2 案例实操

  • 十一. 实例

一. Shell概述

大数据程序员为什么要学习Shell呢?
1)需要看懂运维人员编写的Shell程序。
2)偶尔会编写一些简单Shell程序来管理集群、提高开发效率。
在这里插入图片描述

二. Shell解析器

1. Linux提供的Shell解析器有:

1[hadoop@master ~]$ cat /etc/shells 2/bin/sh 3/bin/bash 4/sbin/nologin 5/bin/dash 6/bin/tcsh 7/bin/csh 8 9

2. bash和sh的关系

1[hadoop@master bin]$ ll | grep bash 2-rwxr-xr-x. 1 root root 941880 511 2016 bash 3lrwxrwxrwx. 1 root root 4 527 2017 sh -> bash 4 5

3. Centos默认的解析器是bash

1[hadoop@hadoop102 bin]$ echo $SHELL 2/bin/bash 3 4

三. Shell脚本入门

1.脚本格式

脚本以#!/bin/bash开头(指定解析器)

2.第一个Shell脚本:helloworld

1(1)需求:创建一个Shell脚本,输出helloworld 2 3(2)案例实操: 4[hadoop@master datas]$ touch helloworld.sh 5[hadoop@master datas]$ vi helloworld.sh 6 7在helloworld.sh中输入如下内容 8#!/bin/bash 9echo "helloworld" 10 11(3)脚本的常用执行方式 12第一种:采用bash或sh+脚本的相对路径或绝对路径(不用赋予脚本+x权限) 13 sh+脚本的相对路径 14 [hadoop@master datas]$ sh helloworld.sh 15 Helloworld 16 sh+脚本的绝对路径 17 [hadoop@master datas]$ sh /home/hadoop/datas/helloworld.sh 18 helloworld 19 bash+脚本的相对路径 20 [hadoop@master datas]$ bash helloworld.sh 21 Helloworld 22 bash+脚本的绝对路径 23 [hadoop@master datas]$ bash /home/hadoop/datas/helloworld.sh 24 Helloworld 25 26第二种:采用输入脚本的绝对路径或相对路径执行脚本(必须具有可执行权限+x) 27 (a)首先要赋予helloworld.sh 脚本的+x权限 28 [hadoop@master datas]$ chmod 777 helloworld.sh 29 (b)执行脚本 30 相对路径 31 [hadoop@master datas]$ ./helloworld.sh 32 Helloworld 33 绝对路径 34 [hadoop@master datas]$ /home/hadoop/datas/helloworld.sh 35 Helloworld 36注意:第一种执行方法,本质是bash解析器帮你执行脚本,所以脚本本身不需要执行权限。第二种执行方法,本质是脚本需要自己执行,所以需要执行权限。 37 38

3.第二个Shell脚本:多命令处理

1(1)需求: 2 在/home/hadoop/目录下创建一个banzhang.txt,在banzhang.txt文件中增加“I love cls”。 3(2)案例实操: 4 [hadoop@master datas]$ touch batch.sh 5 [hadoop@master datas]$ vi batch.sh 6 7 在batch.sh中输入如下内容 8 #!/bin/bash 9 10 cd /home/hadoop 11 touch cls.txt 12 echo "I love cls" >>cls.txt 13 14

四. Shell中的变量

1. 系统变量

11. 常用系统变量 2 $HOME$PWD$SHELL$USER32.案例实操 4(1)查看系统变量的值 5 [hadoop@master datas]$ echo $HOME 6 /home/hadoop 7(2)显示当前Shell中所有变量:set 8 [hadoop@master datas]$ set 9 BASH=/bin/bash 10 BASH_ALIASES=() 11 BASH_ARGC=() 12 BASH_ARGV=() 13 14

2. 自定义变量

11.基本语法 2 (1)定义变量:变量=3 (2)撤销变量:unset 变量 4 (3)声明静态变量:readonly变量,注意:不能unset 52.变量定义规则 6 (1)变量名称可以由字母、数字和下划线组成,但是不能以数字开头,环境变量名建议大写。 7 (2)等号两侧不能有空格 8 (3)在bash中,变量默认类型都是字符串类型,无法直接进行数值运算。 9(4)变量的值如果有空格,需要使用双引号或单引号括起来。 103.案例实操 11 (1)定义变量A 12 [hadoop@master datas]$ A=5 13 [hadoop@master datas]$ echo $A 14 5 15 (2)给变量A重新赋值 16 [hadoop@master datas]$ A=8 17 [hadoop@master datas]$ echo $A 18 8 19 (3)撤销变量A 20 [hadoop@master datas]$ unset A 21 [hadoop@master datas]$ echo $A 22 (4)声明静态的变量B=2,不能unset 23 [hadoop@master datas]$ readonly B=2 24 [hadoop@master datas]$ echo $B 25 2 26 [hadoop@master datas]$ B=9 27 -bash: B: readonly variable 28 (5)在bash中,变量默认类型都是字符串类型,无法直接进行数值运算 29 [hadoop@hadoop102 ~]$ C=1+2 30 [hadoop@hadoop102 ~]$ echo $C 31 1+2 32 (6)变量的值如果有空格,需要使用双引号或单引号括起来 33 [hadoop@hadoop102 ~]$ D=I love banzhang 34 -bash: world: command not found 35 [hadoop@hadoop102 ~]$ D="I love banzhang" 36 [hadoop@hadoop102 ~]$ echo $A 37 I love banzhang 38 (7)可把变量提升为全局环境变量,可供其他Shell程序使用 39 export 变量名 40 [hadoop@master datas]$ vim helloworld.sh 41 42 在helloworld.sh文件中增加echo $B 43 #!/bin/bash 44 45 echo "helloworld" 46 echo $B 47 48 [hadoop@master datas]$ ./helloworld.sh 49 Helloworld 50 发现并没有打印输出变量B的值。 51 [hadoop@master datas]$ export B 52 [hadoop@master datas]$ ./helloworld.sh 53 helloworld 54 2 55 56

3 特殊变量:$n

11.基本语法 2 $n (功能描述:n为数字,$0代表该脚本名称, 3 $1-$9代表第一到第九个参数,十以上的参数, 4 十以上的参数需要用大括号包含,如${10}52.案例实操 6(1)输出该脚本文件名称、输入参数1和输入参数2 的值 7 [hadoop@master datas]$ touch parameter.sh 8 [hadoop@master datas]$ vim parameter.sh 9 10 #!/bin/bash 11 echo "$0 $1 $2" 12 13 [hadoop@master datas]$ chmod 777 parameter.sh 14 15 [hadoop@master datas]$ ./parameter.sh cls xz 16 ./parameter.sh cls xz 17 18

4. 特殊变量:$#

11.基本语法 2 $# (功能描述:获取所有输入参数个数,常用于循环)。 32.案例实操 4(1)获取输入参数的个数 5 [hadoop@master datas]$ vim parameter.sh 6 7 #!/bin/bash 8 echo "$0 $1 $2" 9 echo $# 10 11 [hadoop@master datas]$ chmod 777 parameter.sh 12 13 [hadoop@master datas]$ ./parameter.sh cls xz 14 parameter.sh cls xz 15 2 16 17

5. 特殊变量:$*、$@

11.基本语法 2 $* (功能描述:这个变量代表命令行中所有的参数,$*把所有的参数看成一个整体) 3 $@ (功能描述:这个变量也代表命令行中所有的参数,不过$@把每个参数区分对待) 42.案例实操 5(1)打印输入的所有参数 6 [hadoop@master datas]$ vim parameter.sh 7 8 #!/bin/bash 9 echo "$0 $1 $2" 10 echo $# 11 echo $* 12 echo $@ 13 14 [hadoop@master datas]$ bash parameter.sh 1 2 3 15 parameter.sh 1 2 16 3 17 1 2 3 18 1 2 3 19 20

6. 特殊变量:$?

11.基本语法 2 $? (功能描述:最后一次执行的命令的返回状态。 3 如果这个变量的值为0,证明上一个命令正确执行; 4 如果这个变量的值为非0(具体是哪个数,由命令自己来决定), 5 则证明上一个命令执行不正确了。) 62.案例实操 7 (1)判断helloworld.sh脚本是否正确执行 8 [hadoop@master datas]$ ./helloworld.sh 9 hello world 10 [hadoop@master datas]$ echo $? 11 0 12 13

五. 运算符

1.基本语法

1(1)“$((运算式))”或“$[运算式]2(2)expr + , - , \*, /, % 加,减,乘,除,取余 3注意:expr运算符间要有空格 4 5

2.案例实操:

1(1)计算3+2的值 2 [hadoop@master datas]$ expr 2 + 3 3 5 4(2)计算3-2的值 5 [hadoop@master datas]$ expr 3 - 2 6 1 7(3)计算(2+3)X4的值 8 (a)expr一步完成计算 9 [hadoop@master datas]$ expr `expr 2 + 3` \* 4 10 20 11 (b)采用$[运算式]方式 12 [hadoop@master datas]# S=$[(2+3)*4] 13 [hadoop@master datas]# echo $S 14 15

六. 条件判断

1.基本语法

1[ condition ](注意condition前后要有空格) 2注意:条件非空即为true,[ hadoop ]返回true,[] 返回false。 3 4

2. 常用判断条件

1(1)两个整数之间比较 2 = 字符串比较 3 -lt 小于(less than) -le 小于等于(less equal) 4 -eq 等于(equal) -gt 大于(greater than) 5 -ge 大于等于(greater equal) -ne 不等于(Not equal) 6(2)按照文件权限进行判断 7 -r 有读的权限(read) 8 -w 有写的权限(write) 9 -x 有执行的权限(execute) 10(3)按照文件类型进行判断 11 -f 文件存在并且是一个常规的文件(file) 12 -e 文件存在(existence) 13 -d 文件存在并是一个目录(directory) 143.案例实操 15 (1)23是否大于等于22 16 [hadoop@master datas]$ [ 23 -ge 22 ] 17 [hadoop@master datas]$ echo $? 18 0 19 (2)helloworld.sh是否具有写权限 20 [hadoop@master datas]$ [ -w helloworld.sh ] 21 [hadoop@master datas]$ echo $? 22 0 23 (3)/home/hadoop/cls.txt目录中的文件是否存在 24 [hadoop@master datas]$ [ -e /home/hadoop/cls.txt ] 25 [hadoop@master datas]$ echo $? 26 1 27(4)多条件判断 28&& 表示前一条命令执行成功时,才执行后一条命令, 29 || 表示上一条命令执行失败后,才执行下一条命令) 30 31 [hadoop@master ~]$ [ condition ] && echo OK || echo notok 32 OK 33 [hadoop@master datas]$ [ condition ] && [ ] || echo notok 34 notok 35 36

七. 流程控制(重点)

1. if 判断

1.1 基本语法

1if [ 条件判断式 ];then 2 程序 3fi 4或者 5if [ 条件判断式 ] 6 then 7 程序 8fi 9 注意事项: 10(1)[ 条件判断式 ],中括号和条件判断式之间必须有空格 11(2)if后要有空格 12 13

1.2 案例实操

1(1)输入一个数字,如果是1,则输出banzhang zhen shuai,如果是2,则输出cls zhen mei,如果是其它,什么也不输出。 2[hadoop@master datas]$ touch if.sh 3[hadoop@master datas]$ vim if.sh 4 5#!/bin/bash 6 7if [ $1 -eq "1" ] 8then 9 echo "banzhang zhen shuai" 10elif [ $1 -eq "2" ] 11then 12 echo "cls zhen mei" 13fi 14 15[hadoop@master datas]$ chmod 777 if.sh 16[hadoop@master datas]$ ./if.sh 1 17banzhang zhen shuai 18 19

2 case 语句

2.1 基本语法

1case $变量名 in 2 "值1"3 如果变量的值等于值1,则执行程序1 4 ;; 5 "值2"6 如果变量的值等于值2,则执行程序2 7 ;; 8 …省略其他分支… 9 *) 10 如果变量的值都不是以上的值,则执行此程序 11 ;; 12esac 13 14注意事项: 151)case行尾必须为单词“in”,每一个模式匹配必须以右括号“)”结束。 162)双分号“;;”表示命令序列结束,相当于java中的break。 173)最后的“*)”表示默认模式,相当于java中的default。 18 19

2.2 案例实操

1(1)输入一个数字,如果是1,则输出banzhang,如果是2,则输出cls,如果是其它,输出renyao。 2[hadoop@master datas]$ touch case.sh 3[hadoop@master datas]$ vim case.sh 4 5!/bin/bash 6 7case $1 in 8"1") 9 echo "banzhang" 10;; 11 12"2") 13 echo "cls" 14;; 15*) 16 echo "renyao" 17;; 18esac 19 20[hadoop@master datas]$ chmod 777 case.sh 21[hadoop@master datas]$ ./case.sh 1 221 23 24

3. for 循环

3.1 基本语法1

1for (( 初始值;循环控制条件;变量变化 )) 2 do 3 程序 4 done 5 6

3.2 案例实操

1(1)从1加到100 2[hadoop@master datas]$ touch for1.sh 3[hadoop@master datas]$ vim for1.sh 4 5#!/bin/bash 6 7s=0 8for((i=0;i<=100;i++)) 9do 10 s=$[$s+$i] 11done 12echo $s 13 14[hadoop@master datas]$ chmod 777 for1.sh 15[hadoop@master datas]$ ./for1.sh 16“5050” 17 18

3.3 基本语法2

1for 变量 in 值1 值2 值3… 2 do 3 程序 4 done 5 6

3.4 案例实操

1(1)打印所有输入参数 2 [hadoop@master datas]$ touch for2.sh 3 [hadoop@master datas]$ vim for2.sh 4 5 #!/bin/bash 6 #打印数字 7 8 for i in $* 9 do 10 echo "ban zhang love $i " 11 done 12 13 [hadoop@master datas]$ chmod 777 for2.sh 14 [hadoop@master datas]$ bash for2.sh cls xz bd 15 ban zhang love cls 16 ban zhang love xz 17 ban zhang love bd 18(2)比较$*$@区别 19 (a)$*$@都表示传递给函数或脚本的所有参数, 20 不被双引号“”包含时,都以$1 $2$n的形式输出所有参数。 21 22 [hadoop@master datas]$ touch for.sh 23 [hadoop@master datas]$ vim for.sh 24 25 #!/bin/bash 26 27 for i in $* 28 do 29 echo "ban zhang love $i " 30 done 31 32 for j in $@ 33 do 34 echo "ban zhang love $j" 35 done 36 37 [hadoop@master datas]$ bash for.sh cls xz bd 38 ban zhang love cls 39 ban zhang love xz 40 ban zhang love bd 41 ban zhang love cls 42 ban zhang love xz 43 ban zhang love bd 44 (b)当它们被双引号“”包含时, 45$*”会将所有的参数作为一个整体,以“$1 $2$n”的形式输出所有参数; 46$@”会将各个参数分开,以“$1” “$2”…”$n”的形式输出所有参数。 47 48 [hadoop@master datas]$ vim for.sh 49 50 #!/bin/bash 51 52 for i in "$*" 53 #$*中的所有参数看成是一个整体,所以这个for循环只会循环一次 54 do 55 echo "ban zhang love $i" 56 done 57 58 for j in "$@" 59 #$@中的每个参数都看成是独立的,所以“$@”中有几个参数,就会循环几次 60 do 61 echo "ban zhang love $j" 62 done 63 64 [hadoop@master datas]$ chmod 777 for.sh 65 [hadoop@master datas]$ bash for.sh cls xz bd 66 ban zhang love cls xz bd 67 ban zhang love cls 68 ban zhang love xz 69 ban zhang love bd 70 71

4. while 循环

4.1 基本语法

1while [ 条件判断式 ] 2 do 3 程序 4 done 5 6

4.2 案例实操

1(1)从1加到100 2 [hadoop@master datas]$ touch while.sh 3 [hadoop@master datas]$ vim while.sh 4 5 #!/bin/bash 6 s=0 7 i=1 8 while [ $i -le 100 ] 9 do 10 s=$[$s+$i] 11 i=$[$i+1] 12 done 13 14 echo $s 15 16 [hadoop@master datas]$ chmod 777 while.sh 17 [hadoop@master datas]$ ./while.sh 18 5050 19 20

八. read读取控制台输入

1.基本语法

1 read(选项)(参数) 2 选项: 3 -p:指定读取值时的提示符; 4 -t:指定读取值时等待的时间(秒)。 5 -s:隐藏用户输入数据 6 -n:指定要接受的字符数 7 参数 8 变量:指定读取值的变量名 9 10

2.案例实操

1(1)提示7秒内,读取控制台输入的名称 2 [hadoop@master datas]$ touch read.sh 3 [hadoop@master datas]$ vim read.sh 4 5 #!/bin/bash 6 7 read -t 7 -p "Enter your name in 7 seconds " NAME 8 echo $NAME 9 10 [hadoop@master datas]$ ./read.sh 11 Enter your name in 7 seconds xiaoze 12 xiaoze 13 14

九. 函数

1. 系统函数

1.1 basename基本语法与案例

1basename [string / pathname] [suffix] 2 (功能描述:basename命令会删掉所有的前缀包括最后一个(‘/’)字符,然后将字符串显示出来。 3选项: 4 suffix为后缀,如果suffix被指定了,basename会将pathname或string中的suffix去掉。 5 6(1)截取该/home/hadoop/banzhang.txt路径的文件名称 7 [hadoop@master datas]$ basename /home/hadoop/banzhang.txt 8 banzhang.txt 9 [hadoop@master datas]$ basename /home/hadoop/banzhang.txt .txt 10 banzhang 11 12

1.2 dirname基本语法与案例

1dirname 文件绝对路径 2 功能描述:从给定的包含绝对路径的文件名中去除文件名(非目录的部分), 3 然后返回剩下的路径(目录的部分) 4案例实操 5(1)获取banzhang.txt文件的路径 6 [hadoop@master ~]$ dirname /home/hadoop/banzhang.txt 7 /home/hadoop 8 9

2. 自定义函数

2.1 基本语法

1[ function ] funname[()] 2{ 3 Action; 4 [return int;] 5} 6funname 7 8

2.2 经验技巧

1(1)必须在调用函数地方之前,先声明函数,shell脚本是逐行运行。不会像其它语言一样先编译。 2(2)函数返回值,只能通过$?系统变量获得, 3 可以显示加:return返回, 4 如果不加,将以最后一条命令运行结果,作为返回值。return后跟数值n(0-255) 5 6

2.3 案例实操

1(1)计算两个输入参数的和 2 [hadoop@master datas]$ touch fun.sh 3 [hadoop@master datas]$ vim fun.sh 4 5 #!/bin/bash 6 function sum() 7 { 8 s=0 9 s=$[ $1 + $2 ] 10 echo "$s" 11 } 12 13 read -p "Please input the number1: " n1; 14 read -p "Please input the number2: " n2; 15 sum $n1 $n2; 16 17 [hadoop@master datas]$ chmod 777 fun.sh 18 [hadoop@master datas]$ ./fun.sh 19 Please input the number1: 2 20 Please input the number2: 5 21 7 22 23

十. Shell工具(重点)

1. cut

cut的工作就是“剪”,具体的说就是在文件中负责剪切数据用的。cut 命令从文件的每一行剪切字节、字符和字段并将这些字节、字符和字段输出。

1.1 基本用法

1cut [选项参数] filename 2说明:默认分隔符是制表符 3 4

1.2 选项参数说明

1表1-55 2选项参数 功能 3-f 列号,提取第几列 4-d 分隔符,按照指定分隔符分割列 5 6

1.3 案例实操

1(0)数据准备 2 [hadoop@master datas]$ touch cut.txt 3 [hadoop@master datas]$ vim cut.txt 4 dong shen 5 guan zhen 6 wo wo 7 lai lai 8 le le 9(1)切割cut.txt第一列 10 [hadoop@master datas]$ cut -d " " -f 1 cut.txt 11 dong 12 guan 13 wo 14 lai 15 le 16(2)切割cut.txt第二、三列 17 [hadoop@master datas]$ cut -d " " -f 2,3 cut.txt 18 shen 19 zhen 20 wo 21 lai 22 le 23(3)在cut.txt文件中切割出guan 24 [hadoop@master datas]$ cat cut.txt | grep "guan" | cut -d " " -f 1 25 guan 26(4)选取系统PATH变量值,第2个“:”开始后的所有路径: 27 [hadoop@master datas]$ echo $PATH 28 /usr/lib64/qt-3.3/bin:/usr/local/bin:/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/sbin:/home/hadoop/bin 29 30 [hadoop@hadoop102 datas]$ echo $PATH | cut -d: -f 2- 31 /usr/local/bin:/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/sbin:/home/hadoop/bin 32(5)切割ifconfig 后打印的IP地址 33 [hadoop@master datas]$ ifconfig eth0 | grep "inet addr" | cut -d: -f 2 | cut -d" " -f1 34 192.168.1.102 35 36

2. sed

sed是一种流编辑器,它一次处理一行内容。处理时,把当前处理的行存储在临时缓冲区中,称为“模式空间”,接着用sed命令处理缓冲区中的内容,处理完成后,把缓冲区的内容送往屏幕。接着处理下一行,这样不断重复,直到文件末尾。文件内容并没有改变,除非你使用重定向存储输出。

2.1 基本用法

1sed [选项参数] ‘command’ filename 2 3

2.2 选项参数说明

1表1-56 2选项参数 功能 3-e 直接在指令列模式上进行sed的动作编辑。 4 5

2.3 命令功能描述

1表1-57 2命令 功能描述 3 a 新增,a的后面可以接字串,在下一行出现 4 d 删除 5 s 查找并替换 6 7

2.4 案例实操

1(0)数据准备 2 [hadoop@hadoop102 datas]$ touch sed.txt 3 [hadoop@hadoop102 datas]$ vim sed.txt 4 dong shen 5 guan zhen 6 wo wo 7 lai lai 8 9 le le 10 11(1)将“mei nv”这个单词插入到sed.txt第二行下,打印。 12 [hadoop@hadoop102 datas]$ sed '2a mei nv' sed.txt 13 dong shen 14 guan zhen 15 mei nv 16 wo wo 17 lai lai 18 19 le le 20 [hadoop@hadoop102 datas]$ cat sed.txt 21 dong shen 22 guan zhen 23 wo wo 24 lai lai 25 26 le le 27注意:文件并没有改变 28 29(2)删除sed.txt文件所有包含wo的行 30 [hadoop@hadoop102 datas]$ sed '/wo/d' sed.txt 31 dong shen 32 guan zhen 33 lai lai 34 35 le le 36 37(3)将sed.txt文件中wo替换为ni 38 [hadoop@hadoop102 datas]$ sed 's/wo/ni/g' sed.txt 39 dong shen 40 guan zhen 41 ni ni 42 lai lai 43 44 le le 45注意:‘g’表示global,全部替换 46 47(4)将sed.txt文件中的第二行删除并将wo替换为ni 48[hadoop@hadoop102 datas]$ sed -e '2d' -e 's/wo/ni/g' sed.txt 49dong shen 50ni ni 51lai lai 52 53le le 54 55

3. awk

一个强大的文本分析工具,把文件逐行的读入,以空格为默认分隔符将每行切片,切开的部分再进行分析处理。

3.1 基本用法

1awk [选项参数] ‘pattern1{action1} pattern2{action2}...’ filename 2pattern:表示AWK在数据中查找的内容,就是匹配模式 3action:在找到匹配内容时所执行的一系列命令 4 5

3.2 选项参数说明

1表1-55 2选项参数 功能 3-F 指定输入文件折分隔符 4-v 赋值一个用户定义变量 5 6

3.3 案例实操

1(0)数据准备 2 [hadoop@hadoop102 datas]$ sudo cp /etc/passwd ./ 3 4(1)搜索passwd文件以root关键字开头的所有行,并输出该行的第7列。 5 [hadoop@hadoop102 datas]$ awk -F: '/^root/{print $7}' passwd 6 /bin/bash 7 8(2)搜索passwd文件以root关键字开头的所有行,并输出该行的第1列和第7列,中间以“,”号分割。 9 [hadoop@hadoop102 datas]$ awk -F: '/^root/{print $1","$7}' passwd 10 root,/bin/bash 11 注意:只有匹配了pattern的行才会执行action 12 13 (3)只显示/etc/passwd的第一列和第七列,以逗号分割,且在所有行前面添加列名user,shell在最后一行添加"dahaige,/bin/zuishuai"14 [hadoop@hadoop102 datas]$ awk -F : 'BEGIN{print "user, shell"} {print $1","$7} END{print "dahaige,/bin/zuishuai"}' passwd 15 user, shell 16 root,/bin/bash 17 bin,/sbin/nologin 18 。。。 19 hadoop,/bin/bash 20 dahaige,/bin/zuishuai 21 注意:BEGIN 在所有数据读取行之前执行;END 在所有数据执行之后执行。 22 23(4)将passwd文件中的用户id增加数值1并输出 24 [hadoop@hadoop102 datas]$ awk -v i=1 -F: '{print $3+i}' passwd 25 1 26 2 27 3 28 4 29 30

3.4 awk的内置变量

1表1-56 2变量 说明 3FILENAME 文件名 4NR 已读的记录数 5NF 浏览记录的域的个数(切割后,列的个数) 6 7

3.5 案例实操

1(1)统计passwd文件名,每行的行号,每行的列数 2 [hadoop@hadoop102 datas]$ awk -F: '{print "filename:" FILENAME ", linenumber:" NR ",columns:" NF}' passwd 3 filename:passwd, linenumber:1,columns:7 4 filename:passwd, linenumber:2,columns:7 5 filename:passwd, linenumber:3,columns:7 6 7(2)切割IP 8 [hadoop@hadoop102 datas]$ ifconfig eth0 | grep "inet addr" | awk -F: '{print $2}' | awk -F " " '{print $1}' 9 192.168.1.102 10 11(3)查询sed.txt中空行所在的行号 12 [hadoop@hadoop102 datas]$ awk '/^$/{print NR}' sed.txt 13 5 14 15

4. sort

sort命令是在Linux里非常有用,它将文件进行排序,并将排序结果标准输出。

4.1 基本语法

1sort(选项)(参数) 2表1-57 3选项 说明 4 -n 依照数值的大小排序 5 -r 以相反的顺序来排序 6 -t 设置排序时所用的分隔字符 7 -k 指定需要排序的列 8参数:指定待排序的文件列表 9 10

4.2 案例实操

1(0)数据准备 2 [hadoop@hadoop102 datas]$ touch sort.sh 3 [hadoop@hadoop102 datas]$ vim sort.sh 4 bb:40:5.4 5 bd:20:4.2 6 xz:50:2.3 7 cls:10:3.5 8 ss:30:1.6 9 10(1)按照“:”分割后的第三列倒序排序。 11 [hadoop@hadoop102 datas]$ sort -t : -nrk 3 sort.sh 12 bb:40:5.4 13 bd:20:4.2 14 cls:10:3.5 15 xz:50:2.3 16 ss:30:1.6 17 18

十一. 实例

1问题1:使用Linux命令查询file1中空行所在的行号 2答案: 3 [hadoop@hadoop102 datas]$ awk '/^$/{print NR}' sed.txt 4 5 5 6问题2:有文件chengji.txt内容如下: 7 张三 40 8 李四 50 9 王五 60 10 使用Linux命令计算第二列的和并输出 11 [hadoop@hadoop102 datas]$ cat chengji.txt | awk -F " " '{sum+=$2} END{print sum}' 12 150 13 14问题3:Shell脚本里如何检查一个文件是否存在?如果不存在该如何处理? 15 #!/bin/bash 16 17 if [ -f file.txt ]; then 18 echo "文件存在!" 19 else 20 echo "文件不存在!" 21 fi 22 23问题4:用shell写一个脚本,对文本中无序的一列数字排序 24 [root@CentOS6-2 ~]# cat test.txt 25 9 26 8 27 7 28 6 29 5 30 4 31 3 32 2 33 10 34 1 35 [root@CentOS6-2 ~]# sort -n test.txt|awk '{a+=$0;print $0}END{print "SUM="a}' 36 1 37 2 38 3 39 4 40 5 41 6 42 7 43 8 44 9 45 10 46 SUM=55 47 48问题5:请用shell脚本写出查找当前文件夹(/home) 49 下所有的文本文件内容中包含有字符”shen”的文件名称 50 [hadoop@hadoop102 datas]$ grep -r "shen" /home | cut -d ":" -f 1 51 /home/hadoop/datas/sed.txt 52 /home/hadoop/datas/cut.txt 53 54
上一篇:Linux Shell 编程
下一篇:shell编程

代码交流 2021