Chinaunix首页 | 论坛 | 博客
  • 博客访问: 4945930
  • 博文数量: 3890
  • 博客积分: 6409
  • 博客等级: 准将
  • 技术积分: 15977
  • 用 户 组: 普通用户
  • 注册时间: 2008-09-02 16:48
  • 认证徽章:
个人简介

迷彩 潜伏 隐蔽 伪装

文章分类

全部博文(3890)

文章存档

2017年(5)

2016年(63)

2015年(931)

2014年(677)

2013年(814)

2012年(1262)

2011年(67)

2010年(8)

2009年(36)

2008年(28)

分类: 系统运维

2015-04-14 10:12:11

Hadoop文件损坏解决办法

[日期:2015-04-14] 来源:Linux社区  作者:weiweiyixiao [字体:  ]

今天把集群重新扩容了一下,把之前的两台电脑重新装了系统,结果启动Hadoop发现报错了。

问题原因:在hdfs-site中配置的副本书为1,而且把两台机子的文件给清理了,导致一部分数据丢失,而且无法恢复,报错导致hbase无法访问60010端口

解决办法:使用 hadoop fsck / 列出损坏文件,损坏的文件无法恢复,只能删除损坏的文件  hadoop fsck -delete

--------------------------------------分割线 --------------------------------------

Ubuntu14.04下Hadoop2.4.1单机/伪分布式安装配置教程  http://www.linuxidc.com/Linux/2015-02/113487.htm

CentOS安装和配置Hadoop2.2.0  http://www.linuxidc.com/Linux/2014-01/94685.htm

Ubuntu 13.04上搭建Hadoop环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu上搭建Hadoop环境(单机模式+伪分布模式) http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu下Hadoop环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建Hadoop环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

搭建Hadoop环境(在Winodws环境下用虚拟机虚拟两个Ubuntu系

更多Hadoop相关信息见Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

本文永久更新链接地址http://www.linuxidc.com/Linux/2015-04/116176.htm

linux
阅读(417) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~
评论热议
请登录后评论。

登录 注册