虚拟化容器,大数据,DBA,中间件,监控。
15 11月
HIVE 配置文件详解

hive的配置:hive.ddl.output.format:hive的ddl语句的输出格式,默认是text,纯文本,还有json格式,这个是0.90以后才出的新配置;hive.exec.script.wrapper:hive调用脚本时的包装器,默认是nu...

作者:admin|分类:大数据|浏览:949
15 11月
zookeeper的配置参数详解(zoo.cfg)

配置参数详解(主要是%ZOOKEEPER_HOME%/conf/zoo.cfg文件 参数名说明clientPort客户端连接server的端口,即对外服务端口,一般设置为2181吧。dataDir存储快照文件snapshot的目录。默认情况下,事务日志也...

作者:admin|分类:大数据|浏览:618
15 11月
Zookeeper 扫盲 :disappointed_relieved:

配置文件详解:tickTime:基本事件单元,以毫秒为单位,这个时间作为 Zookeeper 服务器之间或客户端之间维持心跳的时间间隔dataDir:存储内存中数据库快照的位置,顾名思义就是 Zookeeper 保存数据的目录,默认情况下,Zookeepe...

作者:admin|分类:大数据|浏览:433
15 11月
livy-0.5安装

$ cat conf/livy-env.sh#!/usr/bin/env bashSPARK_HOME=/opt/sparkHADOOP_CONF_DIR=/etc/hadoop/conf$ cat conf/livy.conflivy.server.se...

作者:admin|分类:大数据|浏览:378
15 11月
Spark2.0.1 on yarn with hue 集群安装部署(六)livy安装测试

一、R安装如果未安装R,可以先安装R,用于支持SparkR,如果yum源中没有R语言的安装包,可以从官网下载相应版本进行手动编译安装。sudo yum install R1安装rJava 下载地址: https://cran.r-project.org/w...

作者:admin|分类:大数据|浏览:431
15 11月
flume读取日志数据写入kafka 然后kafka+storm整合

一、flume配置flume要求1.6以上版本flume-conf.properties文件配置内容,sinks的输出作为kafka的product[html] view plain copya1.sources = r1 a1.sinks = k1 ...

作者:admin|分类:大数据|浏览:429
15 11月
记flume部署过程中遇到的问题以及解决方法(持续更新

项目需求是将线上服务器生成的日志信息实时导入kafka,采用agent和collector分层传输,app的数据通过thrift传给agent,agent通过avro sink将数据发给collector,collector将数据汇集后,发送给kafka,...

作者:admin|分类:大数据|浏览:566
15 11月
Hadoop的三种作业调度原理汇总

Hadoop调优方式一个MapRedcue作业是通过JobClient向master的JobTracker提交的(JobTracker一直在等待JobClient通过RPC协议提交作业),JobTracker接到JobClient的请求后把其加入作业队列中...

作者:admin|分类:大数据|浏览:394
15 11月
Hive学习之路 (一)Hive初识

目录Hive 简介 什么是Hive 为什么使用 Hive Hive 特点 Hive 和 RDBMS 的对比 Hive的架构 1、用户接口: shell/CLI, jdbc/odbc, webui Command Line Interface 2、...

作者:admin|分类:大数据|浏览:449
15 11月
Hive学习之路 (二)Hive安装

目录Hive的下载 Hive的安装 1、本人使用MySQL做为Hive的元数据库,所以先安装MySQL。 2、上传Hive安装包 3、解压安装包 4、修改配置文件 5、 一定要记得加入 MySQL 驱动包(mysql-connector-java-...

作者:admin|分类:大数据|浏览:421