Druid-数据迁移(HDFS)
环境描述
- 两套
Druid集群:Druid-A(source)、Druid-B(target) - 两套
HDFS集群:HDFS-A、HDFS-B Druid元数据存在MySQL中- 两套
HDFS集群互通,记得在source中配置target的Host
目标描述
- 将
Druid-A中的数据迁移到Druid-B中
操作描述
HDFS中的数据迁移,以HDFS-A中存储的两天的segmnets为例hadoop distcp hdfs://HDFS-A:8020/druid/segments/api_request_us/20180531T000000.000Z_20180601T000000.000Z hdfs://HDFS-A:8020/druid/segments/api_request_us/20180601T000000.000Z_20180602T000000.000Z webhdfs://HDFS-B:50070/druid/segments/api_request_us
确保
Druid机器为安全的状态(对要插入的段无写操作,建议down掉KIS)在
Druid目录(阿里为/usr/lib/druid-current)中启动insert-segment-to-db,可参考官网的链接java -Ddruid.metadata.storage.type=mysql -Ddruid.metadata.storage.connector.connectURI=jdbc\:mysql\://localhost\:3306/druid -Ddruid.metadata.storage.connector.user=root -Ddruid.metadata.storage.connector.password=pwd -Ddruid.extensions.loadList=[\"mysql-metadata-storage\",\"druid-hdfs-storage\"] -Ddruid.storage.type=hdfs -cp "$DRUID_HOME/lib/*" io.druid.cli.Main tools insert-segment-to-db --workingDir hdfs://HDFS-B:8020/druid/segments/api_request_us
p.s.
> druid.metadata.storage.connector.connectURI 为JDBC URL
> druid.metadata.storage.connector.user 为用户名
> druid.metadata.storage.connector.password 为密码
> workingDir 可指定到具体那一天的目录也可以在dataSource的目录
e.g. /druid/segments/api_request_us/20180601T000000.000Z_20180602T000000.000Z若发现
FileNotFound,将HDFS的core-site.xml放置到Druid配置文件的_commom中(阿里为/etc/ecm/druid-conf)
本文标题:Druid-数据迁移(HDFS)
文章作者:Shea
原始链接:https://di1shuai.com/Druid-数据迁移-HDFS.html
版权声明:本博客所有文章除特别声明外,均采用 CC BY-NC-SA 3.0 CN 许可协议。转载请注明出处!