`
chakey
  • 浏览: 359606 次
  • 性别: Icon_minigender_1
  • 来自: 水星
社区版块
存档分类
最新评论

hadoop自动清除日志文件的配置方法

阅读更多

hadoop集群跑了很多的任务后

hadoop.log.dir目录下会产生大量的日志文件。

可以通过配置core-site.xml文件让集群自动清除日志文件:


<property>

  <name>hadoop.logfile.size</name>

  <value>10000000</value>

  <description>The max size of each log file</description>

</property>


<property>

  <name>hadoop.logfile.count</name>

  <value>10</value>

  <description>The max number of log files</description>

</property>

0
0
分享到:
评论
6 楼 johnnyzuo 2013-12-02  
不起作用。希望LZ以后自测后再发,这样很容易误导初学者
5 楼 wangshibei 2013-05-08  
一看就是从别的地方转的,麻烦楼主转之前自己先试试看好不好用
4 楼 kedaya 2013-01-24  
这都是默认值,写上有什么意义么?
3 楼 flyeagle88 2012-09-28  
usezhou 写道
这是core-default.xml中的 默认配置,但楼主亲自尝试过吗,对现有的hadoop集群有效果吗,真的 是每个文件小于10m 且一共保存10个日志文件吗?
在default 中有默认配置,为何还在core-site.xml中还需要主动声明?

同问楼主,这个配置貌似没起到作用啊。。。
2 楼 usezhou 2012-08-06  
这是core-default.xml中的 默认配置,但楼主亲自尝试过吗,对现有的hadoop集群有效果吗,真的 是每个文件小于10m 且一共保存10个日志文件吗?
在default 中有默认配置,为何还在core-site.xml中还需要主动声明?
1 楼 heipark 2012-02-01  
good !

相关推荐

Global site tag (gtag.js) - Google Analytics