无干货,仅供复制
注:这里假定机器上已经运行了一个pseudo mode的hadoop
1.下载、解压
2.把HIVE_INSTALL/bin 加入到path中
3.配置相关的hadoop信息
<!--HIVE_INSTALL/conf/hive-site.xml--> <configuration> <!--跟hadoop下的cores-site.xml一致--> <property> <name>fs.default.name</name> <value>hdfs://localhost/</value> </property> <!--跟hadoop下的mapret-site.xml一致--> <property> <name>mapred.job.tracker</name> <value>localhost:8021</value> </property> </configuration>
4. 在hadoop服务器上执行hive查询时需要用到hive的一个库,需要在hive里配置。
<!--HIVE_INSTALL/conf/hive-site.xml--> <property> <name>hive.aux.jars.path</name> <value>/home/kent/hive-contrib-0.9.0.jar</value> </property>
当然,要把这个库从本地复制到hdfs中,
引用
#hadoop fs -copyFromLocal /home/kent/dev/hadoop/hive-0.9.0/lib/hive-contrib-0.9.0.jar /home/kent/hive-contrib-0.9.0.jar
5. 最后试一下
# echo 'X' > /tmp/dummy.txt # hive > create table dummy (value string); --建一个表 > load data local inpath '/tmp/dummy.txt' overwrite into table dummy -- 将本地文件导入到表中; > select * from dummy;