[RL]强化学习指导搭建IC2E核反应堆

张开发
2026/4/9 3:33:19 15 分钟阅读

分享文章

[RL]强化学习指导搭建IC2E核反应堆
Minecraft 工业2 实验版核反应堆计算 强化学习模块训练路径最近在玩Minecraft IC2 Classic但是对于摆核反应堆总是感觉不是很得心应手不管怎么摆效率都很低为了解决这个问题所以我写了一个强化学习的模块让神经网络自己去学习如何摆弄这个网络。不过看了下IC2 Classic 的核反应堆因为似乎不涉及中子流所以任务是比较简单的为了节目效果我准备研究一下IC2 experiment版的核电站这个玩起来更有趣学习的深度也更深。任务简单分为三步明确任务目标和行为搭建网络训练一、任务目标和行为指南这一步往往是比较重要的因为这一步决定了AI到底要学什么以及怎么学。1.1 问题定义IC2E的核反应堆设计本质上是一个组合优化问题。你有一个9×6的网格54个位置每个位置可以放18种不同的组件包括空槽位。理论上有18^54种可能的配置这个数字大到宇宙中的原子都数不过来。但问题是这些配置里99.99%都是垃圾——要么发电量低得可怜要么直接爆炸。我们要找的是那0.01%既能高效发电又不会炸的设计。1.2 核反应堆的物理机制在开始训练之前得先搞清楚IC2E核反应堆到底是怎么工作的。不然AI学出来的东西可能完全不符合物理规律。核脉冲机制燃料棒工作时会向四周发射核脉冲相邻的燃料棒接收到核脉冲后发电量会成倍增加中子反射板可以把核脉冲反射回去相当于虚拟的燃料棒举个例子一个单铀棒U单独放置发电5 EU/t旁边有1个燃料棒发电10 EU/t旁边有2个燃料棒发电15 EU/t旁边有4个燃料棒发电25 EU/t所以燃料棒越密集发电效率越高。但问题来了——热量产生机制燃料棒产生的热量跟相邻的燃料棒/反射板数量有关公式是热量 倍数 × (n1) × (n2)其中n是相邻的燃料棒或反射板数量0-4。这个公式很狠是二次增长的。比如单铀棒倍数2n0孤立2×1×2 4 HU/tickn11个邻居2×2×3 12 HU/tickn22个邻居2×3×4 24 HU/tickn44个邻居2×5×6 60 HU/tick看到没发电量是线性增长5→25但热量是二次增长4→60。这就是核反应堆设计的核心矛盾你想要高功率就得承受高热量。散热系统热量如果散不出去反应堆温度就会一路飙升到10000 HU就爆炸。所以必须有足够的散热系统散热片H自身散热6 HU/tick反应堆散热片R从堆温吸热5 HU/tick然后自己散热5 HU/tick高级散热片A自身散热12 HU/tick超频散热片O自身散热20 HU/tick还有热交换器可以在组件之间转移热量把热量从燃料棒转移到散热片上。1.3 强化学习的任务建模搞清楚物理机制后就可以把这个问题建模成强化学习任务了。状态空间State SpaceAI需要看到当前反应堆的状态。我用了一个18×9×6的三维张量18个通道每个通道对应一种组件类型9×6是反应堆的网格大小用one-hot编码如果某个位置放了某种组件对应通道就是1否则是0这种表示方式的好处是神经网络可以直接处理而且能保留空间信息。动作空间Action Space这里我踩了个大坑。最开始的设计V1版本是让AI同时选择三个东西行号0-8列号0-5组件类型0-17用的是MultiDiscrete([9, 6, 18])总共972种可能的动作。听起来很合理对吧但实际训练时发现了严重的问题无效动作问题随着反应堆逐渐被填满越来越多的位置已经被占用了。如果AI选择了一个已经有组件的位置这个动作就是无效的。问题有多严重我统计了一下刚开始0%无效动作填了一半50%无效动作快填满时83%无效动作这意味着AI大部分时间都在做无效动作得到负反馈。结果AI学到的策略就是一直输出同一个动作因为这样至少不会被惩罚太多。更糟糕的是训练时因为有随机探索看起来还正常但评估时用确定性策略AI就完全不会了直接崩盘。V2版本的解决方案既然位置选择这么麻烦干脆不让AI选了。改成AI只选择组件类型Discrete(18)位置按从左到右、从上到下的顺序自动填充这样就完全避免了无效动作问题。每个动作都是有效的学习信号清晰训练稳定。这个改动看起来简单但效果差别巨大。V1版本训练20万步还是一团糟V2版本5万步就能看到明显的学习效果。奖励函数Reward Function奖励函数决定了AI的优化目标。我的设计思路是主要目标发电量奖励 平均功率 × 1.5比如平均300 EU/t就得450分安全约束不能爆炸爆炸惩罚-500但如果爆炸前发了不少电也给点安慰分平均功率×0.2这样鼓励AI探索高功率设计而不是一味保守温度控制堆温超过90%严重惩罚-200×超出比例堆温超过70%轻度惩罚-50×超出比例这样AI会学会控制温度稳定性奖励完整跑完1000 ticks50鼓励AI设计能长期运行的反应堆中间步骤的小奖励放燃料棒0.1放散热片0.05放其他组件0.02这样AI在填充过程中也有正反馈不会完全迷失这些数字都是调出来的。比如爆炸惩罚最开始是-1000发现AI太保守了功率上不去就改成-500。温度惩罚的阈值也试了好几个值最后定在70%和90%。二、搭建网络2.1 环境实现强化学习的环境需要实现Gymnasium的接口。核心是三个方法reset()重置环境defreset(self):self.reactorReactor(9,6,max_hull_heat10000)self.current_layoutnp.zeros((9,6),dtypenp.int32)self.current_position0# 当前要填充的位置returnself._get_observation(),self._get_info()step(action)执行一个动作defstep(self,action):# action就是组件类型索引0-17component_idxaction# 计算当前位置自动填充rowself.current_position//6colself.current_position%6# 放置组件component_codeself.AVAILABLE_COMPONENTS[component_idx]self.current_layout[row,col]component_idx self.current_position1# 如果还没填满给个小奖励ifself.current_position54:rewardself._calculate_intermediate_reward(component_code)terminatedFalseelse:# 填满了运行模拟计算最终奖励reward,terminatedself._evaluate_reactor()returnobservation,reward,terminated,truncated,info_evaluate_reactor()评估反应堆设计def_evaluate_reactor(self):# 从布局重建反应堆self.reactor.load_layout(layout_codes)# 运行1000个tick的模拟total_power0.0max_heat0.0explodedFalsefortickinrange(1000):resultself.reactor.simulate_tick()total_powerresult[power]max_heatmax(max_heat,result[hull_heat])ifresult[exploded]:explodedTruebreak# 计算平均功率和奖励avg_powertotal_power/(tick1)rewardself._calculate_reward(avg_power,max_heat,exploded,tick1)returnreward,exploded2.2 反应堆模拟器环境的核心是反应堆模拟器它要准确模拟IC2E的物理机制。模拟流程每个tick燃料棒产生热量和电力计算接收到的核脉冲数计算发电量5 × (base_output received_pulses)计算产热量multiplier × (n1) × (n2)热量分配燃料棒产生的热量均分给周围可储热组件如果周围没有组件热量传给反应堆本体如果组件满了溢出的热量也传给反应堆本体热交换器工作在组件之间转移热量高温→低温与反应堆本体交换热量散热片工作自身散热从反应堆吸热并散发从相邻组件吸热并散发检查状态组件是否过热损坏反应堆是否爆炸≥10000 HU这个模拟器我写了大概1000行代码实现了IC2E的所有核心机制。测试了几个已知的设计模拟结果和游戏里基本一致。2.3 神经网络结构用的是Stable-Baselines3的PPO算法默认的MlpPolicy。网络结构输入层972维18×9×6展平隐藏层164个神经元ReLU激活隐藏层264个神经元ReLU激活输出层Policy head18维每个组件的概率分布Value head1维状态价值估计为什么不用CNN因为反应堆的空间结构不像图像那么重要。燃料棒在左上角和右下角对整体性能的影响是一样的。MLP够用了而且训练更快。2.4 算法选择试过几个算法DQN优点经典好理解缺点不太稳定容易崩结果训练了10万步功率一直在50左右徘徊A2C优点比DQN稳定缺点样本效率低需要很多步才能学会结果20万步能到200 EU/t但还不够好PPO优点稳定样本效率高对超参数不敏感缺点没啥明显缺点结果10万步就能到300 EU/t20万步能到400最后选了PPO主要是因为稳定。强化学习本来就不稳定能用稳定的算法就用稳定的。三、训练3.1 训练配置超参数learning_rate3e-4# 学习率n_steps2048# 每次更新前采集的步数batch_size64# 批大小n_epochs10# 每批数据训练的轮数gamma0.99# 折扣因子gae_lambda0.95# GAE参数clip_range0.2# PPO裁剪范围这些基本都是Stable-Baselines3的默认值我没怎么调。PPO的好处就是默认参数就很好用。并行环境用了4个并行环境同时采集数据。这样训练快而且能增加数据多样性。如果CPU核心多可以开到8个甚至16个。但要注意内存占用每个环境都要跑完整的反应堆模拟。3.2 训练过程运行命令python rl_train.py--timesteps200000--n-envs4训练时的输出IC2 核反应堆强化学习训练 算法: PPO 策略: MlpPolicy 总步数: 200000 并行环境: 4 学习率: 0.0003 动作空间: Discrete(18) - 只选择组件无无效动作 模型名称: PPO_20260330_143022 Episode 完成: 平均功率120.00 EU/t, 最大堆温8500.00, 爆炸否 Episode 完成: 平均功率85.00 EU/t, 最大堆温12000.00, 爆炸是 Episode 完成: 平均功率200.00 EU/t, 最大堆温6500.00, 爆炸否 Episode 完成: 平均功率280.00 EU/t, 最大堆温5200.00, 爆炸否 ...可以看到刚开始AI还在瞎搞有时候爆炸有时候功率很低。但慢慢地功率在涨爆炸率在降。训练曲线用TensorBoard可以看到训练曲线tensorboard--logdirrl_logs关键指标ep_rew_mean平均奖励应该持续上升ep_len_mean平均episode长度应该稳定在54填满网格value_loss价值函数损失应该逐渐下降policy_loss策略损失会有波动但整体趋势下降如果曲线一直平着不动说明没学到东西可能需要调整奖励函数或增加训练步数。3.3 评估结果训练完后用最佳模型评估python evaluate_model.py rl_models/PPO_xxx/best/best_model.zip --n-episodes20我的结果20万步训练评估统计: 平均奖励: 425.30 ± 35.20 平均功率: 360.80 ± 45.60 EU/t 最大功率: 480.00 EU/t 最小功率: 280.00 EU/t 爆炸率: 5.00% 平均堆温: 5500.00 ± 1200.00这个结果还不错平均功率360 EU/t已经比手工设计的很多方案好了爆炸率只有5%说明AI学会了控制温度温度控制在5500左右很安全如果训练50万步能到400-500 EU/t爆炸率降到2-3%。3.4 AI设计的反应堆长什么样我看了几个AI设计的反应堆发现了一些有趣的模式模式1对称布局AI经常设计出对称的布局比如E E E E E E E U H U H E E H O O H E E U H U H E E H O O H E E E E E E E ...燃料棒和散热片交替排列很工整。模式2核心外围把燃料棒集中在中间散热片围在外面E E E E E E E H H H H E E H U U H E E H U U H E E H H H H E E O O O O E ...这样热量集中但散热也集中。模式3分散布局把燃料棒分散开避免过热E U E U E E E H E H E E E E E E E E E U E U E E E H E H E E ...功率不高但很安全。有意思的是AI会根据奖励函数的权重自动调整策略。如果我把爆炸惩罚调高AI就会设计更保守的方案如果把功率权重调高AI就会冒险设计高功率方案。3.5 遇到的问题和解决方案问题1训练不收敛症状训练了10万步功率还是很低没有上升趋势原因奖励函数设计有问题或者动作空间有问题解决检查奖励函数确保有正反馈简化动作空间V1→V2问题2评估时表现很差症状训练时看起来正常评估时功率很低或者总是爆炸原因训练时的随机探索掩盖了问题评估时用确定性策略就暴露了解决简化动作空间避免无效动作问题3训练很慢症状每秒只能跑几十步训练20万步要好几个小时原因反应堆模拟太慢每个tick都要计算很多东西解决优化模拟代码增加并行环境数减少模拟tick数但可能影响效果问题4模型过拟合症状训练集表现很好但换个随机种子就不行了原因训练数据不够多样解决增加并行环境数增加训练步数调整探索率四、总结和展望4.1 项目总结这个项目最大的收获是环境设计比算法更重要。V1版本用了复杂的动作空间试了各种算法和超参数怎么调都不行。V2版本简化了动作空间用默认参数就能训练出不错的模型。所以如果你也在做强化学习项目遇到训练不收敛的问题先检查环境设计动作空间是否合理有没有大量无效动作奖励函数是否清晰AI能不能得到有效的学习信号状态表示是否充分AI能不能看到足够的信息算法和超参数反而是次要的。PPO用默认参数就很好用。4.2 性能对比和手工设计的反应堆比手工设计需要反复试错可能要调试几十次才能找到好方案AI设计训练一次可以生成无数个方案而且性能不错和暴力搜索比暴力搜索搜索空间太大18^54根本搜不完强化学习智能探索只需要几十万步就能找到好方案4.3 后续改进方向现在的版本能用但还有改进空间1. 可视化AI设计现在只能看到动作序列和数字如果能直接画出反应堆布局图就更直观了。可以用matplotlib画个热力图显示每个位置的组件和温度。2. 导出配置文件把AI设计导出成YAML文件可以直接用在游戏里。这样就能在游戏中验证AI的设计是否真的有效。3. 多目标优化现在只优化功率和安全性还可以考虑成本不同组件的材料成本不同耐久燃料棒和反射板会损耗需要定期更换启动时间有些设计需要预热有些可以立即满功率运行可以用多目标强化学习算法比如MORL同时优化多个目标。4. 迁移学习现在训练的是9×6的反应堆如果要设计6×6或者12×6的反应堆需要重新训练。可以用迁移学习把9×6的知识迁移到其他尺寸。5. 课程学习先让AI学简单的设计比如只用单铀棒和散热片再学复杂的设计加入双联、四联燃料棒和热交换器。这样学习曲线可能更平滑。6. 人类反馈可以让玩家评价AI的设计把评价作为额外的奖励信号。这样AI可以学到一些难以量化的偏好比如布局要美观、要容易维护等。

更多文章