hadoop 任务失败重复次数的处理方法 -电脑资料

电脑资料 时间:2019-01-01 我要投稿
【www.unjs.com - 电脑资料】

   

   

    hadoop任务分为map task和reduce task,当map task执行失败后会重试,超过重试次数(mapred.map.max.attempts指定,默认为4),整个job会失败,这是我们不想看到的,

hadoop 任务失败重复次数的处理方法

    解决办法:

    hadoop提供配置参数“mapred.max.map.failures.percent”解决这个问题。如果一个Job有200个map task,该参数设置为5的话,则单个job最多允许10个map task(200 x 5% =10)失败,这是我想要的,

电脑资料

hadoop 任务失败重复次数的处理方法》(https://www.unjs.com)。

    把下面配置放到mapred-site.xml文件中,重启jobtracker(hadoop-daemon.sh stop/start jobtracker ),这下大家满足了吧^_^

    Xml代码

   

    mapred.max.map.failures.percent

    5

   

    PS:reduce task有类似配置mapred.max.reduce.failures.percent

最新文章