气候变化下沿海基础设施全生命周期优化适应策略:创新框架引领可持续发展

【字体: 时间:2025年01月28日 来源:Nature Communications

编辑推荐:

  气候变化加剧沿海风险,现有静态决策方法难以应对不确定性。研究人员基于马尔可夫决策过程(MDPs)和部分可观测马尔可夫决策过程(POMDPs)开展沿海基础设施适应研究。结果显示该框架能降低成本与碳排放,为沿海规划提供科学依据。

  在全球气候变化的大背景下,温室气体(GHG)排放导致全球气温上升,进而引发海平面上升(SLR)。这给沿海地区带来了诸多严重问题,如土地被永久淹没、海岸侵蚀加剧、沿海基础设施受损、重要沿海生态系统遭到破坏,以及洪水、风暴潮等极端事件的频率和强度增加。预计到本世纪末,这些风险还会因低洼海岸线的持续开发而进一步加剧。
传统的气候变化规划主要依赖成本效益分析(CBA)。这种方法通过模拟多种情景来确定最优投资时间和基础设施行动,以最大化效益并最小化成本。然而,由于气候模型预测存在大量不确定性,实际气候轨迹可能与模拟的平均情况或选定的百分位情况相差甚远,导致基于 CBA 确定的静态政策往往并非针对实际气候轨迹的最优策略,无法利用实时观测数据更新风险知识和不确定性信息。

为了解决这些问题,美国宾夕法尼亚州立大学(The Pennsylvania State University)等机构的研究人员开展了一项关于沿海基础设施在气候变化下最优生命周期适应的研究。他们将气候风险管理构建为基于马尔可夫决策过程(MDPs)和部分可观测马尔可夫决策过程(POMDPs)的动态决策问题,充分考虑实时数据评估变化情况和模型不确定性,从而及时选择最优的全生命周期行动,为优化问题提供全局最优解保障。该研究成果发表在《Nature Communications》上。

研究人员主要运用了以下关键技术方法:

  1. 构建 MDP/POMDP 模型:将沿海洪水风险缓解问题构建为 MDP 和 POMDP 模型,明确状态空间、行动空间、转移概率矩阵、奖励函数等要素,考虑多种不确定性因素。
  2. 利用气候模型数据:基于政府间气候变化专门委员会(IPCC)的 AR6 报告中的气候模型数据,获取海平面上升和风暴潮的相关信息,并通过回归模型考虑历史数据中的短期变异性。
  3. 求解模型:采用异步值迭代算法(如聚焦实时动态规划(FRTDP)算法)求解 MDP/POMDP 模型,以获得最优策略。

研究结果如下:

  1. 一般问题公式化:将沿海基础设施适应问题构建为 MDP,状态包括离散化的 SLR、风暴潮水平和基础设施相关状态,通过动态规划原理为长期目标提供全局最优性保证。在 POMDP 中,将气候模型视为隐藏状态变量,根据 SLR 观测值进行概率推断,通过贝叶斯规则更新信念,进而求解最优策略。
  2. 海平面上升和风暴潮过程:SLR 模型基于 IPCC 的 AR6 报告中的区域 SLR 投影,并结合历史数据的变异性进行建模。风暴潮则基于广义极值(GEV)分布进行模拟,其参数通过对观测数据的最大似然估计确定。
  3. 沿海城市设置:在理想化的沿海城市(受曼哈顿启发)和沿海社区(受斯塔滕岛启发)两种场景下进行研究。在沿海城市场景中,不同的洪水管理策略(如建造不同高度的防洪墙、将沿海土地改造成多功能绿色区域等)在不同情景下展现出不同的效果。MDP 策略相较于静态基准策略能显著降低成本,同时考虑碳成本后,碳成本在决策中起到重要作用。在沿海社区场景中,考虑了建造固定高度防洪墙和采用自然基础设施(如盐沼和牡蛎礁)等策略,结果表明牡蛎礁在降低整体成本方面更具优势,但盐沼在碳吸收方面表现更佳。
  4. 社会碳成本的影响:研究发现,增加社会碳成本会增加建造更高海拔防洪墙的频率和概率,同时也会导致规划期内累积碳排放成本显著增加。
  5. 模型的影响:不同气候模型(如 SSP2 - 4.5 和 SSP5 - 8.5)训练的策略在相似气候轨迹下表现相似。将气候模型不确定性纳入决策框架形成 POMDP 后,信念会根据 SLR 观测值更新,且 POMDP 策略与 MDP 策略在应对高 SLR 过程时具有相似行为。

研究结论和讨论部分指出,该研究将基础设施的生命周期适应构建为随机控制的 MDP/POMDP 问题,能够有效应对气候变化带来的不确定性,降低生命周期成本和碳排放。与静态策略相比,MDP 策略虽在部分场景下成本节省幅度有限,但考虑到其仅通过单步行动就实现了 2% - 5% 的成本节省,显示出动态决策的潜力。

该研究框架可纳入多种不确定性因素,尽管未直接处理未来气候模型改进带来的不确定性,但具备容纳该因素的能力。同时,研究考虑了碳成本,有助于制定综合可持续的适应政策,且探索了不同自然基础设施在洪水风险管理中的有效性和适用性。

然而,该研究也存在一定局限性。随着状态数量、可能的动态行动和时间跨度增加,计算复杂度会上升,可能超出 MDP/POMDP 求解器的处理能力。未来可通过深度强化学习等技术克服这些限制,进一步探索更多适应性行动和更长时间跨度的情况。此外,研究目前将多个目标聚合为单一标量目标函数,未来可扩展框架考虑多目标规划,平衡不同目标之间的权衡关系。该研究框架还可与其他自适应解决方案进行比较,为动态规划和相关求解器的发展提供参考,推动该领域的进一步研究和发展。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号