一、线上事故复盘:任务全卡死,日志一片寂静

几个月前有个定时任务服务,凌晨会并发处理上千个文件。按理说线程池能轻松抗住。
结果那天凌晨,监控报警:任务积压 5 万条,机器 CPU 却只有 3%!

去看线程 dump:


pool-1-thread-1 waiting on queue.take()  
pool-1-thread-2 waiting on queue.take()  
...

线程都在等任务,但任务明明在队列里!

当时线程池配置如下:

new ThreadPoolExecutor(
    5,
    10,
    60L, TimeUnit.SECONDS,
    new LinkedBlockingQueue<>(10000),
    new ThreadPoolExecutor.AbortPolicy()
);

看起来没毛病对吧?
实际结果是:拒绝策略从未生效、maxPoolSize 永远没机会触发。


二、真相:线程池参数不是你想的那样配的

要理解问题,得先知道 ThreadPoolExecutor 的任务提交流程。

任务提交 → 核心线程是否满?
    ↓ 否 → 新建核心线程
    ↓ 是 → 队列是否满?
        ↓ 否 → 放入队列等待
        ↓ 是 → 是否小于最大线程数?
            ↓ 是 → 创建非核心线程
            ↓ 否 → 拒绝策略触发

也就是说:
只要队列没满,线程池就不会创建非核心线程。

所以:

  • 你的 corePoolSize = 5
  • 队列能放 10000 个任务;
  • maxPoolSize = 10 永远不会触发;
  • 线程永远就那 5 个在干活;
  • 队列里的任务越堆越多,拒绝策略永远“假死”。

三、踩坑场景实录

场景错误配置结果
高频接口异步任务LinkedBlockingQueue<>(10000)队列太大 → 拒绝策略形同虚设
IO密集型任务核心线程过少(如5)CPU空闲但任务堆积
CPU密集型任务核心线程过多(如50)上下文切换浪费CPU
线程池共用多个模块共用一个 pool某任务阻塞导致全局“死锁”

四、正确配置姿势(我现在都这么配)

思路很简单:

例如 CPU 密集型任务:

int cores = Runtime.getRuntime().availableProcessors();
ThreadPoolExecutor executor = new ThreadPoolExecutor(
    cores + 1, 
    cores + 1,
    0L, TimeUnit.MILLISECONDS,
    new LinkedBlockingQueue<>(100),
    new ThreadPoolExecutor.CallerRunsPolicy()
);

IO 密集型任务:

int cores = Runtime.getRuntime().availableProcessors();
ThreadPoolExecutor executor = new ThreadPoolExecutor(
    cores * 2,
    cores * 4,
    60L, TimeUnit.SECONDS,
    new LinkedBlockingQueue<>(200),
    new ThreadPoolExecutor.CallerRunsPolicy()
);

关键思想:

  • 宁可拒绝,也不要堆积。
  • 拒绝意味着“系统过载”,堆积意味着“慢性自杀”。

五、拒绝策略的“假死”与自定义方案

内置的 4 种拒绝策略:

  • AbortPolicy:直接抛异常(最安全)
  • CallerRunsPolicy:调用方线程执行(可限流)
  • DiscardPolicy:悄悄丢弃任务(最危险)
  • DiscardOldestPolicy:丢最老的(仍可能乱序)

如果你想更智能一点,可以自定义:

new ThreadPoolExecutor.AbortPolicy() {
    @Override
    public void rejectedExecution(Runnable r, ThreadPoolExecutor e) {
        log.warn("任务被拒绝,当前队列:{}", e.getQueue().size());
        // 可以上报监控 / 发报警
    }
};

六、监控才是救命稻草

别等到队列堆积了才发现问题。
我建议给线程池加实时监控,比如:

ScheduledExecutorService monitor = Executors.newScheduledThreadPool(1);
monitor.scheduleAtFixedRate(() -> {
    log.info("PoolSize={}, Active={}, QueueSize={}",
             executor.getPoolSize(),
             executor.getActiveCount(),
             executor.getQueue().size());
}, 0, 5, TimeUnit.SECONDS);

这样你能第一时间看到线程数没涨、队列在爆


七、总结(踩坑后记)

项目错误思路正确思路
corePoolSize设太小根据 CPU/I/O 特性动态计算
queueCapacity设太大保持小容量以触发拒绝策略
maxPoolSize没触发仅当队列满后才会启用
拒绝策略默认 Abort建议自定义/限流处理
监控没有定期打印状态日志

最后一句话:


️ 写在最后

如果你看到这里,不妨想想自己的系统里有多少个 newFixedThreadPool、多少个默认 LinkedBlockingQueue 没有限制大小。
你以为是“优化”,其实是定时炸弹。

本站提供的所有下载资源均来自互联网,仅提供学习交流使用,版权归原作者所有。如需商业使用,请联系原作者获得授权。 如您发现有涉嫌侵权的内容,请联系我们 邮箱:[email protected]