Sqoop是一个开源工具,用于将关系型数据库和数据仓库(例如PostgreSQL)中的数据传输到Hadoop的HDFS(Hadoop分布式文件系统)/ Hive中。
Sqoop支持批量导入和导出,支持多种数据源的数据传输。
$ echo $PATH
Sqoop的配置文件位于$SQOOP_HOME/conf/sqoop-env.sh
中。 在这个文件中为以下变量设置适当的值:
* $HADOOP_HOME
* $HIVE_HOME
* $JAVA_HOME
我们以导入postgresql的employees表为例,执行以下命令:
$ sqoop import \
--connect jdbc:postgresql://localhost:5432/mydb \
--table employees \
--username user \
--password password \
--target-dir /user/hadoop/hdfs/employees \
--delete-target-dir \
--num-mappers 1 \
--fields-terminated-by ,
命令说明:
* --connect
:JDBC连接字符串,用于指定需要连接的数据库和其它相关信息。
* --table
:要导入的postgresql表名。
* --username
:postgresql数据库连接用户名。
* --password
:postgresql数据库连接密码。
* --target-dir
:HDFS上的目标目录。
* --delete-target-dir
:在运行Sqoop之前,删除任何已存在的HDFS目标文件夹。
* --num-mappers
:指定使用的Map任务数,默认为4个。
* --fields-terminated-by
:指定输出文件中,每个值之间的分隔符。
另外,您还可以使用其他Sqoop选项来定制导出过程。
有时,您可能想将postgresql表的一部分导入到HDFS中。这可以通过添加一个WHERE语句来实现。例如,您可以使用以下命令将employees表中工资100000美元以上的所有员工导入到HDFS中:
$ sqoop import \
--connect jdbc:postgresql://localhost:5432/mydb \
--table employees \
--username user \
--password password \
--target-dir /user/hadoop/hdfs/employees \
--delete-target-dir \
--num-mappers 1 \
--fields-terminated-by , \
--where "salary > 100000"
有时您需要自己动手指定要导入的列。这可以通过--query
选项和SQL查询来实现。例如,下面的命令指定要从employees表中仅导入id和name列并设置其分隔符为“^”:
$ sqoop import \
--connect jdbc:postgresql://localhost:5432/mydb \
--query "SELECT id, name FROM employees WHERE \$CONDITIONS" \
--username user \
--password password \
--target-dir /user/hadoop/hdfs/employees \
--delete-target-dir \
--num-mappers 1 \
--fields-terminated-by '^'
在--query
选项中,\$CONDITIONS
是一个特殊占位符,Sqoop会将其替换为一个WHERE子句,用于并行分布式地读取数据。
到此,Sqoop从postgresql数据库表导入数据到HDFS中的实现已完成。由于Sqoop支持多种导入和导出类型,因此您可以使用不同的选项和自定义查询来做到这一点。