1. 网站地图
  2. 设为首页
  3. 关于我们


稳健性期望损失的神经网络计算

发布时间:2022-09-30 10:00
目录
第一章 绪论 1
1.1研究背景 1
1.2国内外研究现状 3
1.3文章架构 7
第二章 模型构建 8
2.1预备知识 8
2.2对偶表示 14
第三章 模型应用 19
3.1对偶结果应用 19
3.2神经网络模型构建与算法 21
第四章 实证研究 25
4.1简单验证 25
4.2财险损失实证 27
第五章 总结与展望 31
参考文献 0
第一章 绪论
1.1研究背景
世界进入全球化时代以来,全球各个国家的经济逐渐变得息息相关,同样 的,金融市场也变得更加复杂和多样。近些年,随着信息科技和金融业的快速 发展,金融市场和金融产品也变的多种多样,在 20 世界 90 年代,多种金融衍 生品开始产生并得到了迅速发展,金融衍生工具就是金融创新而产生的结果。 而金融衍生工具的产生也促进了金融市场的发展。一方面,金融衍生工具的灵 活性导致它可以用来规避和转移风险,优化资源配置,增加市场的流动性。即 金融衍生品具有提高金融市场的有效性的优点。另一方面,金融衍生工具也是 一把双刃剑,金融衍生工具在增加市场流动性的基础上,也会产生巨大的风险 性,主要是金融衍生工具有他自身的复杂性和虚拟性。正是由于金融衍生工具 的复杂性,使得金融衍生工具的变得更加难以监管,同时带来的风险也变得更 加难以测量。所以对于金融衍生工具的风险监管就变得尤为重要。
在历史上,由于缺乏对风险的监管和管理产生过很多的后果,影响较小的 后果可能表现为市场的动荡,如果后果影响较大就可能会导致金融危机的产 生。例如,1992 年到 1993 年,欧洲就发生过很多次货币危机;1997 年到 1998 年,由于泰国货币汇率的变动,从而引发东南亚金融市场的波动,直至最后发 生影响全亚洲的亚洲金融危机。距离今天最近的一次也是进入二十世纪以来最 大的一次金融市场的波动,就是 2007 年到 2009 年的全球金融危机。这次的全 球金融危机也是由于次贷信用危机而导致的。时至今日,2008 年全球金融危机 依然深刻地影响着世界情势。同时,2009 年的希腊主权债务危机也是风险管理 不到位的体现。
总的来说,虽然风险管理不当而导致的大规模的金融危机还是相对比较少 见,但是对于国家和全球经济和金融市场的平稳运行来说,小规模的波动也是 不能掉以轻心。但是由于金融市场是十分脆弱和不稳定的,所以对于风险的量 化变得尤为重要。虽然在全球范围内来看,有大量的学者和业内人士去做风险 的量化和金融波动甚至金融危机的预测,但是由于金融系统的复杂性,这项工
1 作是难度巨大的。所以这也凸显了风险管理这项工作的难度和重要性 。
从风险管理工作的整个过程来看,风险管理主要分为三个步骤。第一步是 风险的识别,风险的识别的内容是对风险进行归类和分析,这一步也是进行风 险管理的基础。第二步是风险的度量,这一步是最难也是最关键的一步。风险 度量是对风险的可能性和相应的风险值进行评估。风险度量是基于第一步风险 识别的基础上进行的,同时也是最后一步进行风险控制的基础。最后一步是基 于风险度量的结果进行的风险的控制。风险控制的具体内容是在风险度量的基 础上提出应对风险的解决方案或提出相应的建议和对策。
在风险度量方面的研究中,有着多种的度量方式不断被提出。1963 年, William J[1 ]在《Management Science》杂志上发表了用来管理和控制风险的风险 度量模型,此模型也是后来在风险度量领域应用最广泛,使用时间最长的 VaR 模型概念的雏形。在险价值(Value-at-Risk,简称VaR)的提出的基本思想就是 某一个资产组合在一定的置信水平下和一定的持有期内的预期的最大可能损失 值。 VaR 模型提出的初期,并没有被金融界迅速接受和应用,但是随着各种金 融衍生工具的迅速发展,同时伴随而来的风险度量问题, VaR 逐渐被广泛应用 起来。20世纪90年代,J.P.摩根公司首次提出并将VaR模型应用在风险管理 中,并与压力测试、情景分析和返回检验等方法组成了风险管理的体系。 VaR 最终奠定它的地位是 1996 年,巴塞尔银行风险监管委员推出了针对 VaR 的条 例,正式确定使用VaR来对银行资本进行监管。自此VaR被金融行业确立为通 用的风险度量工具。
虽然 VaR 有着很重要的作用和地位,但是它还是存在着很多的不足之处, 比如不满足次可加性等等,所以为了克服这一缺点,期望损失(expected shortfall,简称ES)就应运而生。ES有着优良的性质,即任何一个一致性的风 险度量都可以通过ES的凸组合来构造。所以,相比于VaR来说,ES是更佳的 风险测度工具,并且也可以说是相比于绝大多数风险测度工具来说都是更好 的。从构建思路上来说,与 VaR 不同的是, ES 的基本想法就是计算风险超过 VaR部分的期望值,所以相比于VaR,ES可以更加准确了解在一定置信度下风 险的可能值,这也是本文使用 ES 的主要原因。从而本文抓住风险管理中最关 键的一步,就是风险的测度对风险的极值进行合理的测度,从而为最后的风险 的控制提供准确和有效的基础。
2
本文的研究课题的意义在于,相比于经典的ES估计方法,例如蒙特卡洛 模拟、方差-协方差方法等等方法,本文通过拓展之前相关学者证明的对偶结 果,使用合理的惩罚项方法,提出合理算法,结合最近流行同时也是十分高效 的神经网络工具对ES的极值进行计算。这也是本文的创新点所在。
1.2国内外研究现状
1.2.1 国外研究现状 本论文参考的文献主要包括以下四个方面,首先是风险度量方面的研究, 其次是风险聚合方面的研究,然后是模糊集和稳健性优化方面的研究,最后是 神经网络在金融方面的应用。
事实上,对于风险的解释和定义一直是多种多样的,但是最被大家接受的 是Frank Knight[2]的定义和描述,他对于风险的创造性在于他将不确定性分为可 测的不确定性和不可测的不确定性,其中可测的不确定性就是所谓的风险。
在险价值(VaR)自从2001年被巴塞尔银行监管委员会所规定的用来度量资 本的风险,一直是金融行业评估风险的标准。然而,自 1994 年左右推出以来, VaR 一直因其弱点而受到学术界和工业界的批评。VaR的最大弱点就是未能捕 捉到“尾部风险”——VaR关注的是损失的概率,但没有考虑到其大小。此外, Artzner和Philippe[3]等学者证明了 VaR不满足风险度量所需的次加性公理。在 认识到 VaR 的缺点后,最近的风险管理的相关研究促进了在风险测量和投资组 合管理中更多地使用期望损失(ES)。作为VaR的替代方法,ES通过考虑超过某 一置信水平的损失的规模和可能性来衡量头寸的风险。此外, ES 拥有更加理想 的特性。Acerbi[4]和Artzner[3]也证明了 ES是对于金融风险更加合理的度量工 具。特别是最近,用 ES 取代 VaR 的呼声越来越高。例如,如巴塞尔银行监管 委员会[5 ]所述,修订后的市场风险框架的关键改进之一是从在险价值(VaR)转向 风险的期望损失(ES)度量。所以鉴于ES在风险度量中的广泛应用,使其更加深 入应用在金融机构的风险管理中就变得越来越重要。所以本文在实证过程中将 期望损失应用在财险公司的风险度量中。
风险聚合是将多种风险聚合在一起的过程,目的是获得一个对于多维风险 的有意义的度量。在这方面,对不同类型的风险之间的相互依赖性进行准确的 估计是十分关键的,已经很多学者提出许多方法对风险间的相互依赖关系进行
3 建模。但是总的来说,涉及多风险之间的依赖关系的模型对于实际情况的估计 远不如用于估计单个风险的模型对实际情况的拟合准确。
很多学者很早就开始风险聚合问题的研究。但多风险聚合极值问题的出现 一开始并不是应用在风险管理中,此问题的起源是来自于计算当边缘分布固定 时两个随机变量和的极值的问题。Makarov[6]在1982年解决了这个问题。之后 的研究都逐渐向高维扩展,De Pril[7][8]从精算学的角度出发,研究在相互独立的 假设下多风险的和的分布性质。在之后的发展中,不仅在风险独立的情况下进 行研究,而更进一步对不同风险之间的相关关系进行不同的假设,从而在不同 的风险相关关系下计算风险组合极值。从Embrechts和Puccetti[9]研究了在无风 险间相关性信息的情况下,任意维数的风险的和的分布函数的边界问题。从此 风险聚合的问题开始被广泛的研究。Embrechts、Wang和Wang[10]给出了依赖 关系不确定性的情况下风险聚合的 VaR 的多种近似不等式, Puccetti 和 Wang [11]回顾了相关学者所做的在风险间有正相关关系和负相关关系情况下风险聚合 的极值问题,并将此问题与概率优化问题联系起来。在之后的发展过程中, Puccetti和Ruschendorf [12]作出了重大贡献,提出了所谓重排算法,重排算法能 够快速地数值出风险的数值边界。但是这个算法在实际地使用过程中也有很大 的缺点,就是他的无信息的假设,即没有使用我们能够得到的一些边际风险之 间的依赖信息,导致了所计算出的上下边界相距很远。
所以一些学者就开始尝试克服这些缺点。基本的想法就是在求解风险聚合 的边界过程中利用更多关于边际风险之间的相关性的信息。例如, Puccetti 和 RUschendorff13】讨论了正的相关关系、负的相关关系和独立相关关系是如何影响 风险边界的;Bernard、Ruschendorf和Vanduffel [14]研究了限制风险的联合分布 的方差范围的情况下风险聚合的边界问题。 Lux 和 Papapantoleon [15]也做出了重 要贡献,他们提供了一个框架,在这个框架下,可以在下面几个条件的情况下 计算在险价值,一是已知极值信息;二是已知连接边际分布的 Copula 函数的参 数在一个范围内;三是 Copula 函数在一个以统计距离为限制的参考 Coupla 函 数的邻域内。在本文使用的方法中也使用了与之类似的想法,不同的是本文使 用的是 Wasserstein 距离而不是统计距离。
下面介绍模糊集的相关研究。模糊集的概念在统计学中十分常用,一般模 糊集的构造与三种方式,分别是参数模型、半参数模型和非参数模型。例如
4
Shapiro[16]所指出的,有两种方法来构建模糊集。一个方面来说对于参数模型的 基本构造方式是对于概率模型(爲,&丘0),我们使用模型的子集(场,0^®),其 中®是®的子集。例如:对于一个正态分布N(“,bj,我们通过对均值和方差 采取一定的限制来构造模糊集,例如限制从匹卩2,还有限制of <a2
这是对于一维随机变量而言的限制方法,除了上面说的参数方法下,近些年还 出现很多非参数方法。一般使用非参数方法构造时的思路如下,首先给出一个 确定的概率分Q,这个概率分布成为参考概率密度,然后使用统计距离构造一 个参考概率分布的“邻域”,即模糊集的元素是与参考概率分布的统计距离在设 定值之内的所有概率分布。在统计距离的选择过程中现在一般存在两种选择, 一个是 0 - divergence,另一个就是 Wasserstein 距离。例如 Bayraksan 和 Love [17] 使用0-divergence。我们主要关注使用Wasserstein距离的相关研究,Pflug和 Wozabal[18]是第一个研究使用 Wasserstein距离构造模糊集的;Esfahani和 Kuhn[19]展示了使用Wasserstein距离的分布稳健性随机优化问题。同样的稳健性 随机优化问题的对偶结果也被很多学者证明了,例如 Gao 和 Kleywegt [19]。只 是使用了不同的技术和假设。在近些年,基于 Wasserstein 距离的稳健性优化问 题也被使用在不同的问题和领域内,Zhao和Guan [21]和Hanasusanto和Kuhn [22] 在两阶段随机规划的背景下采用了类似的想法,Chen、Yu、Haskell[23]和Yang[24] 使用Wasserstein距离研究分布稳健马尔可夫决策过程。Gao和Kleyweg[25]使用 Wasserstein距离限制在参考概率密度,他们证明出了本文使用的对偶结果和线性规 划结果。
另一方面的相关文献是神经网络在金融和优化问题中的应用。近些年,神 经网络的应用越来越广泛,例如应用在模式识别和图像分类等等任务。除了应 用在这种比较常见的问题中,神经网络也可以用来处理特定的优化问题,这也 是我们本文可以用神经网络来处理优化问题的原因,例如在金融领域, Beck、 Becker 、 Grohs Jentzen[26]; Berner 、 Grohs 和 Jentzen[27] ; Weinan 、 Han 和 Jentzen[28]使用神经网络用来解决随机微分方程和随机偏微分方程。Henry- Labordere[29]还用神经网络来解决倒向随机微分方程。
在神经网络可以解决的经典问题中,也有使用运输距离和分布稳健性的想 法的。例如 Gulrajani、Ahmed、Arjovsky 和 Courville[30]在 2017 年使用类似的想
5 法用在图像生成模型,就使用与本文使用方法类似的设置惩罚函数或者正则化 的方法来实现运输距离的限制。
1.2.2 国内研究现状
在我国关于 ES 和风险管理的研究还处于比较初级的阶段。汪忠和黄瑞华[31] 对国外在风险管理方面的研究进行了介绍,并且深入介绍了风险管理的理论框 架并且对未来的发展方向提出了建议。 陈守东, 孔繁利和胡铮洋[32]使用 GARCH模型对于样本数据进行拟合,得到收益序列的VaR值和ES值,结果表 明在置信水平很高的条件下,采用极值方法度量风险值效果更好,并且发现使 用 ES 度量能够对风险有更清晰的认识。李秀芳和毕冬[33]对财险公司的不同险 种的损失率进行估计,最后使用Coupla函数对总损失率进行估计。刘宇飞[34]对 VaR模型进行了介绍并且对VaR在金融监管中的应用进行了研究。郑文通[35]对 VaR 方法的背景,原理及应用做了一个详细的介绍,并分析了此方法使用在国 内风险管理方面的意义。张维和李玉霜[36]以商业银行为例,对所有用来进行信 用风险分析的方法进行了论述,并对近些年出现的例如人工智能和神经网络方 法进行了展望。张玲和张佳林[37] 分析了近些年来信用风险评估方面的方法创 新,为我国的金融机构提供借鉴。
近些年,随着人工智能和计算机的快速发展,国内也有一些学者研究将神 经网络工具应用在风险管理上。王春峰,万海晖和张维[38]将神经网络应用在商 业银行的信用风险评估中,结果表明,神经网络方法相比与传统方法有着更好 的精度和稳健性。杨保安和季海[39]将神经网络应用在商业银行的贷款风险预警 中。杨君岐,任瑞,阚立娜和任昊悦[40]使用商业银行为样本,对数据进行降 维,构造相应的风险的指数。然后使用数据对神经网络进行训练,最后使用训 练好的神经网络进行风险的评估。也有很多的学者将不同的风险度量工具应用 在多个领域同时也对其进行改进。彭程[41]研究了期权的设计和相应的风险管 理。姜秋香,王子龙,王天和赵蚰竹[42]等人为了探究更加优化的水资源分配策 略,创新性地使用了条件在险价值(CvaR)度量水资源分配过程中的可能产生 的风险的大小,从而得到不同策略下的风险大小和相应的经济收益,为水资源 的分配策略提供更好的方案。魏正元,李乔和王雪[43]等人比较了期望损失 (ES)的几种逼近法的优劣,主要还是从历史模拟法出发,使用不同的方程逼 近表达式,最后通过蒙特卡洛模拟的方法进行实证比较研究,最后得出结论是
6
对于 ES 估计而言, Edgeworth 展开的算法比鞍点展开法更加精确。
从上述的文献综述我们可以发现,国外对于风险管理和风险度量的计算的 研究是十分深入的,涉及到新的风险度量工具的建立和风险度量方面的计算, 国内主要还是针对具体案例进行针对性的研究,本文试图使用神经网络方法对 风险度量的极值进行计算。
1.3文章架构
本文的主要研究内容是使用神经网络计算稳健性期望损失的极大值。在本 文中,第一部分为第一章的绪论部分,该章介绍了本文的研究背景,以文献综 述的形式,分别对风险度量理论的发展和应用进行了阐述。
第二部分主要是具体研究内容,研究方式主要使用理论研究和实证研究结 合的方式进行研究,研究内容也可以分为基础知识和模型构建两个部分。第一 部分主要是相关知识和概念的介绍,首先介绍了期望损失的概念,然后是模型 的构建所需要的一些基础知识,比如聚合风险的概念, Wasserstein 距离的概 念,模糊集的概念和期望损失的计算公式,在相关理论基础的最后是相关学者 证明的模型计算的对偶结果,这也是我们进行模型构建的基础。研究内容的第 二部分是为使用神经网络方法进行解决,对模型进行了拓展。本文创新性地设 置合理的惩罚项从而可以使用神经网络对模型进行计算,并且避免了设置惩罚 项可能产生的误差。最后论证了使用神经网络进行计算的合理性。论文的
第三部分是实证环节,在实证部分首先使用一个相对理想化的例子论证第 三部分方法的可行性。在证明本文使用方法具有可行性之后,我们引入财险公 司的实际案例使用本文方法进行计算,得出具有实际意义的期望损失结果。本 文的最后一个部分是结论与展望,该部分对本文研究的内容进行总结,并指出 本文的不足之处和以后研究的方向。
第二章 模型构建
2.1预备知识
2.1.1Wasserstein 距离
近些年来, Wasserstein 距离被越来越多用在统计学习和机器学习的问题 中, Wasserstein 距离的起源是最优传输问题,同时也是最优传输问题中的一个 特例。最优传输问题是优化问题中的一个基础问题和分析中的一个非常重要的 一个话题。这个问题通俗来说如何使用最小的运输损耗从分布“运输质量到分 布V,其中所谓运输质量是从概率的角度来说的。此问题也可称为最优传输损 失,即在变量X和Y之间找到一个最小损失,计算方式如下:
确定一个连续方程C : X X X T [0,8),且方程满足对于所有的XG X有 c(x,x) = 0。概率分布〃和〃之间的最优传输损失为
dc(R, 〃):= inf Jc(x, y)n(dx, dy), (2.1)
其中c( x, y)代表从在X中的x运输到Y中的y元素所需要的单位质量的损耗。 积分代表联合分布兀的期望损失,inf代表所有期望损耗中的最小值。
如果损失方程c满足下面三个条件,一是对称性,即c(x,,) = c(y,x),二是 实值的,三是三角不等式。我们就可以使用上面的最小运输损失dc靠,“)来定 义概率测度空间上的距离。例如,对于Polish空间X,有度量d,我们可以定 义对于p e [1.8),
 
式(2.2)为p阶Wasserstein距离。Wasserstein距离与其他用来测度概率分 布之间的差异的工具相比具有很多优点。例如与相对熵相比, Wasserstein 距离 满足距离度量公理,即
8
1・d(x,y) = 0,当且仅当兀=y ;
2・ d (x, y ) > 0 ;
3・ d(x,y) = d(y,x);
4・ d(x, y)<d(x,z)+d(z, y).
更重要的是,Wasserstein距离仅要求概率分布在{ve P(S): dc (“,v)<3} 中,并没有限制概率分布v有和“有同样的支集(概率分布“所有可能值组成的 闭包)。在现在的应用中, Wasserstein 距离主要被用为优化问题的损失函数,而 在本篇文章中,主要使用Wasserstein距离来增强优化问题的稳健性。
2.1.2模糊集
下面给出模糊集的详细介绍。现在模糊集的构造方式主要分为三种,分别 是参数方法,半参数方法和非参数方法,参数方法是对分布的一阶矩或者高阶 矩进行限制,而半参数方法就是除了限制一阶矩或者二阶矩以外,可以对随机 变量分布的对称性,峰值或者随机变量之间的独立性作出一些限制,这就是所 谓半参数方法。而本文中使用的是非参数方法,所以下面主要介绍一下非参数 方法。
与上面介绍的两种方法不同的是,非参数方法是一种相对更加直观的方 法,即围绕参考分布建立一个以某种距离为半径的“球”,球内包含的分布就是 需要元素,所有的分布组成了一个模糊集。例如使用下面两种不同的距离:
1.有界的Lipschitz距离
dBL ( P, P0} = sup {[J h ( x ) dP ( x )-j h ( x ) dp^|: |h ( x ) - h ( y ) < d ( x, y ); |h ( x ) < 1| ].
2.一阶 Wasserstein 距离
 
 
2.1.3 风险聚合问题
初始的风险聚合问题在数学上就可以表述为在已知多个随机变量的分布的 情况下,求这多个随机变量在某一结构下的期望的极值问题。也可写为,
9
处 /)=uma鶴)^从 (2・3)
式(2.3)中/:创 K, pe P理)。P (创)表示创上所有Borel概率测度 的集合,口(p,...,pd)表示所有边际分布为p,・・・,pd的联合概率分布。从实际意 义来看,风险即不确定因素,所以使用随机变量 X1,..., Xd 代表 d 种风险,而一 般单个风险的分布相对比较容易了解,但是多种风险组合在一起就相对比较难 测量,所以就有了上述风险聚合问题,而式(2.3)中的 f 一般表示不同的风险度 量工具,例如期望损失。
而使用式(2.3)计算风险聚合的极值存在的不足之处就是从实际角度来看, 没有使用除了单个风险的分布以外的别的信息。从式(2.3)中可以发现,只限制 了 peD( p,..., pd ),所以为了更进一步使用实际案例中可能获取的信息,引入 2.1.3中的模糊集概念,对概率分布p进一步进行限制,就有了稳健性风险聚合 问题
坯(f)=戶帆)L dfd p d
dc (p,p)^p
从式(2.4)中可以看出,除了对联合分布 p 有边际分布的条件外,又加入了 p与p之间距离的限制。从实际角度来看,可以利用实际风险测度中对联合分 布更多的信息,而概率分布p可以是根据实际情况和有关知识对X1,...,Xd制定 的联合分布,所以相比式(2.3)而言,使用式(2.4)计算聚合风险的极值就使用了 更多关于风险的信息,对于风险的测度更加准确。
2.1.4 期望损失
期望损失起源为在险价值在风险测度中的应用。在险价值这一概念最早出 现于 20 世纪 80 年代,一开始主要是一些大型的金融机构将其用于所持有的投 资组合的风险评估。从那时起,在险价值方法在金融风险管理领域便开始迅速 推广。在险价值最初的用途是评估和管理衍生金融工具的市场风险,从数理统 计的角度上看,在险价值的意义比较简单,它就是随机变量在特定显著性水平 下的统计分位数,数学定义可以表述如下
10
VaR (X) = inf {x|P(X < x) > 国. (2.5)
式(2.5)中的&代表显著性水平,inf[]为取极小值的算式。从以上定义式可以 清楚的了解到在险价值的涵义,从该定义式中所得到的是随机变量X在显著性 水平仅下的统计分位数。将统计分位数的概念运用到金融风险管理的领域中, 就有了很深刻的实际意义,即如果将随机变量 X 代表某个金融工具或者投资组 合所遇到的风险或者可能会遭受的损失,a代表一定的风险承担水平,即得到 在险价值。此时,这个统计分位数可以向人们传达一个信息,即:在特定的概 率水平下,既定时间内金融资产的实际损失可能超过的最大损失是多少。
但是由于在险价值不满足次可加性假定,次可加性即对于随机变量 X 和 Y,函数f: X T欣,满足f (X) + f (Y)> f (X + Y),在次可加性条件下,投资 组合的整体风险必然会小于等于其各个子投资组合风险之和。这或许可以认为 是一个有效风险测度所应表现出的最根本,最重要的一个特征,因为通过分散 投资可以达到分散风险,进而降低投资组合的整体风险这一认识是金融学研究 中的一条基本的定律。但是 VaR 不是总满足次可加性的,只有当随机变量满足 正态分布的假定下时,才满足次可加性,所以为了克服 VaR 的这个缺点,期望 损失就被提出。
期望损失又被称为平均超额损失, X 如果是一个随机变量即代表投资组合 可能遭受的损失,则期望损失就表示超过 VaR 的损失的期望。如果我们用数学 公式表示,则该投资组合在a的显著性水平下的ES为
ESa(X) = E[X|X > VaRj\ =宀 VaRp (X)dp. (2.6)
期望损失与在险价值相比而言有很多优点,比如满足次可加性,从而期望 损失是一致性风险测度。比如对于置信水平而言,期望损失是单调不减的函 数,并且若有随机变量 X 和 Y , 对 于 所 有 单调不 减的 函 数 G ,有 E [G (X )]< E [G (Y)]的话,都有ESa( X )< ESa(Y),所以很显然,期望损失相 比于在险价值而言具有更好的数学性质和实际意义,因此它具有更加广泛的应 用。
11
同时, ES 也可以写为
ESQ)巳密卜土砂『)+}, (2-7)
式(2.7)中E (X -t)+ = E [ max( X -r,0)]。在之后的实证过程中也是使用式 (2.7)带入进行计算。
2.1.5 神经网络
神经网络的起源是生物学中的神经元和神经网络,主要的运作模式是根据 外部的刺激作出相应的反应。神经网络有很多传统模型没有的优点,比如自适 应性和处理大规模数据集的能力,并且神经网络具有一定的稳健性。它是一个 数学、计算机和仿生学多个学科共同作用产生的学科,也是机器学习里面关键 的一个部分,在语音识别,图像识别等领域有广泛的应用。
我们使用神经网络的原因主要是神经网络拥有三大优点,一个就是很好的 泛化能力,神经网络能够接近任意复杂度的问题,这也是来源于它的两个特 点,一个是神经网络具有非线性性,当我们设置某些特定的激活函数时,神经 网络的输入到输出就是非线性映射,例如我们接下来将要使用的 Relu 函数,它 可以极大的拓展神经网络能够应用的问题的范围。神经网络的另一个特点是具 有自适应的能力,神经网络特殊的运作机制使它能够对不断更新的数据进行实 时的反应,随时调整自己内部的参数,从而产生更好的拟合效果。另一个优点 就是稳健性,这个特点主要是因为神经网络相比于其他的机器学习模型有着更 复杂的结构。当遇到复杂问题时,我们可以设置更多层的神经网络或者每层设 置更多的神经元,所以当某一个神经元出现问题时,并不会影响整体模型的运 作。最后一个优点是应用范围广泛,因为神经网络有着丰富的拓扑结构和不同 的学习方式,所以可以进行不同方式的学习,大致上就分为有监督学习和无监 督学习。下面我们对神经网络的基本结构进行描述:
首先从最简单的一个神经元说起,一个神经元主要包括三个部分,分别是 连接权重,求和器和激活函数。为了更加直观,我们使用图片来展示三个部分 的作用:
 
如果使用数学语言描述上述图片就是
m
uk=E wkixi=<? (uk+bk).
i=1
在式(2.8)中, x = ( x1,..., xm ) 是外部输入, w = ( wk1,..., wkm ) 是连接权重向量, uk 为加权之后的输出结果,g(•):欣t欣是激活函数,bk是偏置,yk是最后神经 元的输出。在实际使用过程中,我们主也要会使用的激活函数有Sigmoid函 数:g(x) = ] I 和 Relu 函数:g(x) = max(x,0) 。
如果将多个人工神经元组合在一起就组成了我们使用的神经网络模型,我 们从图片了解最简单的神经网络。
 
从图中可以看出,神经网络可以分为输入层、隐藏层和输出层,分别具有
13 
接受刺激信号、处理信号和输出信号的作用。他们之间的连接方式如图所示, 不同层之间的神经元相互连接,同层神经网络不连接。前馈神经网络的特点就 是神经元的信息只能从上一层神经网络得到,所以成为前馈神经网络。例如感 知机模型和BP神经网络等等都是经典的前馈神经网络。
下面我们简单介绍一下神经网络的运行过程中需要用到的优化算法,即梯 度下降法,梯度下降法简单来说就是寻找损失函数的最小值点,而寻找的方向 就是梯度或者说是损失函数导数的方向。神经网络的参数就是根据梯度的方向 进行更新,我们使用应用最广泛地批量梯度下降法举例,其中损失函数为
(2.9)
式(2.9)为最经典的平方损失函数,其中W是神经网络的参数矩阵,。丿为目标输 出, yj 为实际输出,神经网络参数的更新方式如下:
(2.10)
式(2.10)中少为学习率,即梯度下架中我们对参数更新时使用的步长,而在本 文中,我们使用小批量梯度下降法,即每次训练的过程中都只取所有样本中的 一部分样本作为这次训练所需要的样本,在这次训练或者说参数更新之后,我 们再重复上述的步骤,直到目标函数达到我们的要求或者迭代次数达到我们设 定的次数,这个方法的优点就是可以兼顾效率和准确度,而在线学习和批量学 习就是小批量梯度下降中每次样本数分别取一和取全部的情况。
2.2对偶表示
使用神经网络进行计算的基础主要是之前的研究中证明的稳健性风险聚合 的原问题的对偶结果,此结果的主要内容如下:
对于是一个Polish空间,即一个完备的度量空间,P表示所有在X上的 Boral概率测度,首先固定一个参考概率测度pe P,我们定义p :=p。pr「', i = 1,......,d,为p的第i个边际分布。k: X t [1, g)是一个成长函数满足
K( x1,..., xd) = 2耳叫(xj,对于每个0 : Xi T [10)是连续的且满足 Lw庇,同时进一步假设Xj =M,对于所有i = L...Jo U (X)表示所有上 半连续的方程f : X T惡且f / K是有界的。
然后就需要对概率分布之间的最优传输函数进行定义,首先确定一个连续 方程C: X X X t [0,3)且c (x, x) = 0,对于所有xe X。在参考概率分布卫和需要 找到的概率密度之间的最优传输函数定义为
 
式(2.3)中n(Pi,....,〃d)代表P(X)中的概率分布且边际分布满足对于i = 1,……,d都 有“=瓦o下面就可以给出定理2.1:
定理2.1对于每个凸的且下半连续的方程0:[0,3] T [0,3],且满足 0(0)= 0和0(3) = 3,对于所有f eU0 (X),都有
max {I "€口(丙,…,〃d ) JX
=2>。膺 ){0* ⑷+皿瓦+Lsup[f (y)—2 hi(yJ -如x, y)回dx)}, 其中 0* (刃=sup x no {Ax - 0( x)}.
对于定理 2.1 不给出详细证明,下面对定理 2.1 的证明过程进行简单的论 述,证明过程首先从两个cb(X)T欣的泛函入手,首先证明设定的两个泛函满 足进行对偶表示的条件,然后分别求的他们各自的对偶表示,在找到对偶表示 之后,由Cb ( X)T^,C0( X)T^和U0( X)T^之间的大小关系建立起与原 问题的关系。然后定义一个两个泛函组成的卷积,在证明卷积所得泛函满足对 偶表示条件后,找到卷积泛函的对偶表示,最后由对卷积泛函的对偶再次进行 对偶找到与原问题的相等关系,最后等式成立,定理证明完成。具体步骤如 下。
首先定义方程0] ( f) : C (X) T欣:
 
hid p : h e Ck( Xj, h Xi)\ 八
i= 丿
需要证明0] (f)在Ck( X)是上连续的,即对于在ck( X)的每一个序列 (fn),当fn I f e Ck{ X),就有0 (fn )/0 (f),这部分就不详细给出。同 时,0 ( f )的凸共轭表示(p)也可以被给出,其中pe Pk( X),其中Pk( X ) 表示所有pe P ( X )且满足Ke L (p)的集合。
d
叭 eg f ) \Xfd ^- . ef. pi
E hi > f
\ i=1 丿
=sup sup [ fdp-E \ hdp
hi ej (Xt) f eCK( X )^Jx
id
E % > f
i=1
 
从上式可以发现,当满足p e 口p,...,pd ),有叭J (P) = 0。 第二步定义 02 : Ck(X)tKLu{+8}
 
同理可以得出对于所有 pe PK( X) , 02的凸共轭为
0*Ck (P) := sup (L fdp-02 (f ))
f eCK ( X )
=SUP (L fd P-02 ( f )) = 0;,UK(“) = 0( d (p, p)).
feUK(X ) X
同时可以得出
01,UK (p) A 02,C (p) A (p) =叭dc (“, p))-
最后对于 f eUK( X )就可以得到卷积0( f )为
0 (f ) := g01 (g) + 02 (f - g)]
dd
=2>°if x W* ⑷+E J hdpi +L sup[f (y) - E hi (yJ—Ac( x, y)]p(dx)}.
再次求0( f )的凸共轭,可以得到
 
 
 
因为在一开始已经证明妬(f)在eK(X)是上连续的,所以可以通过证明
0CK (p) = 0uK (p),就找到了 0(f)的对偶表示
0( f)=“maX) {J x - 0*k(“)}=cc ) CL X - j ( j (p, “))}.
而在本文解决的问题中,我们就需要用到由上面对偶结果所产生的引理,
引理如下:
引理2.2对于每个 f eUK ( X )都有:
max fdp
pe¥(p...pd )JX
dc (p,p)^P
dd
=x,)]pa+ELhidp+[sup f(y)-Eh(yi)-加(x,y) “(dx):
下面给出引理 2.2的证明概述。
根据定理2.1可知,当对定理2.1中的j(x)设为
 
就可以得到式(2.5),也可得到/ (2) = p2o
第三章 模型应用
第三章 模型应用
3.1对偶结果应用
在这部分,应用模型对ES进行重新构建。构建过程如下,对于ES求极值,有
①:=sup ESa (X)
X 〜口 (pi,..,pd)
dc(PQSp
= sup inf \t + — E (-X 一厂)+ >
x〜pen(Pi,..,Pd)厂餵 I a
dc(P,p)<P
=inf 0(厂).
下面对第二章所述对偶结果进行拓展,如下
inf 0( fr) = inf sup
丁眾 X〜pen(P1,..,Pd )1
dc (P,P)Mp
 
其中
1d
r + max (x — r, 0)-2hi(yi)-Ac(x,y)
a i =1
由于我们需要使用神经网络算法进行计算,而式(3.1)无法使用神经网络算法直接进
行计算,所以还需对式(3.1)进行推广,改进思想类似于机器学习中加入惩罚项,具
体过程如下
哩加厂)=哩* inf <
2>0,hi eCb (底) pa+EJr hid “
i—1
+L d sup f -E hi ( yi ) - ( x,y )
_ i—1 - p(dx) > >
丿>
 
不能使用神经网络进行计算的主要原因是存在sup gr (x,y)项,所有针对sup gr (x,y) ye/ y^Ld
进行变换。首先定义方程:
■):=艸g 呱 £ ”曲 + L gdjA. (3.3)
d I 1=1 丿
g (x 茴-E hi (yj-2c(x,y)
i=1
根据式(3.2)可以发现,sup gr (x, y)转换为 g (x)且
yeR d
d
g (x )A厂-E hOJ-加(x, y),接下来使用惩罚项的思想,将限制条件转换为
i=1
惩罚项加入式(3.2),所以定义方程
席(厂):=昨曲吧z爲"+£ L诩+L讪+
\XPY 厂-g(x)-Ehi(yJ-加(x,y) p(dx,dy)
V i-1 丿
d
从式(3.2)可以发现,将式(3.2)中的限制条件g (x )A厂-E hj( yt )-2c (x, y)转换为惩
i=1
罚项\xPr 厂-g(x) —Ehi(y)-久c(x,y) p(dx,dy)。
X Vi =1 丿
我们对于改造完的方程进行讲解,其中惩罚方程定义为
0, x < 0,
P7 :— *
yP( x), x〉0,
其中y> 0,p :欣t[0, s),且卩是满足不减和可微的函数。
需要说明的是在本文中我们使用的惩罚方程只是惩罚方法中的一种方法,
第三章 模型应用
还有很多其他的惩罚方法。但是我们使用这种惩罚方法的优点既将函数的限制 加入了方程进行计算又不会对最后的结果造成近似误差。
在之后就可以利用神经网络算法进行计算,同时可以使用Hornik[44]在1991年 提出的定理证明我们使用神经网络进行计算的合理性。即
定理3.1 ([44])对于h e C (欣“),对于任意有限维测度v和£〉0,都存在 m eN 和 hm eW(m,N),使||h-〃什扁 <£。
定理 3.1 说明,只要神经网络的结构足够复杂,就可以以任意小的误差逼近在 RN上的有界的函数。这也就为下面使用神经网络进行逼近提供了理论基础。
3.2神经网络模型构建与算法
首先对本文使用的神经网络的基本结构进行介绍:
本文中用&,...,A表示仿射变换,其中A表示从谀d到武m的映射,A1,..., Al—1 是从IT到ET的映射,£是娜到展的映射。使用©欣t欣表示激活函数。一个 神经网络模型可以用如下方法表示
0(y ) = @(yj ,...,0(ym)),
夹(m,d):= {g :展“ t展:A。串。A- J..。申。A(x)}.
上述模型可以表示一个有l +1层神经网络,隐藏层有m个神经元,d0个输入, 单输出的神经网络模型。
在本例中,拟合的方程可以写为
 
 
 
对于将用神经网络拟合的方程,可以写为
妬(广)—極厲 inf F(2,hm,...,%,gm,讣 (3.5)
%m e^(m,Nj,gm e^(m,N)
神经网络的输出结果可以写为
F (2, hm,..., h, gm ,t).
由定理 3.1 可知,使用神经网络进行求解是合理。
首先介绍神经网络的基本机构,我们用 A0,..., Al 在神经网络的设置中,我们设 置四层神经网络,其中包括一层输入层,三层隐藏层和一层输出储层。其中每个隐 藏层中有, 32 乘输入维数个神经元,但是神经元个数不是固定的,我们会增多神经 元的个数直到输出结果没有变化。为了更加清晰描述我们使用的模型,用下图表示 使用的模型
A ojo A ojo A ojo A ・
在使用的模型中,A3表示输入层,J。a2,J。A分别代表隐藏层,J。A4代表输出 层。在接下来的实证过程中,我们使用的激活函数为j:= max(x,0),即Relu函数, Relu也是最常用的激活函数之一。4表示仿射变换,即4(x) = Mix + Q,其中矩阵 M e展心心,向量b eM,2,矩阵和向量都是神经网络中待优化的参数。在实证的 过程中,参数维数的设置为输入层维维数d。」—d,d为输入向量x的维数,隐藏层 维数d,2 — di+],i,其中d^且i —1,2,3,4为32• d,输出层的维数为1。
在惩罚函数的设置上,我们设置惩罚函数为
<0, x < 0,
p :彳 (3.6)
yx, x〉0.
式(3.5)中y为较大的正数。在实证过程中会使用不同的y比较结果使用相对最优 的y,并且这个惩罚项在实证过程中被证明是可行的。惩罚函数Py的优点是可以克 服其他一般惩罚函数例如平方惩罚函数方法产生的误差,达到的最优值就是实际可以
22
第三章 模型应用
达到的最优值。
在确定使用的神经网络的基本机构之后,接下来针对上文所提出的问题进 行算法的设计。利用神经网络进行计算的基本步骤如下。首先输入预先设定的 概率密度函数,包括提前已知的边际概率密度函数和使用 Copula 函数连接边际 概率密度而组成的参考概率密度函数,然后由输入的密度函数生成随机样本, 将所生成的随机样本输入我们建立的神经网络模型,经过神经网络的计算输出 目标函数,即式(3.4)。然后使用优化算法调整神经网络的参数找到最优值。需要 补充的是,在优化过程中,也需要不断调整神经网络的超参数或者网络结构使 神经网络更好逼近目标方程。具体算法如下:
算法: 计算稳健性期望损失
输入 :概率分布p,...pd ;参考概率分布p ;目标函数札,\厂); 迭代次数
M, 批量大小",学习率a。
输出: 0爲(f)。
1. 输出中的hm,...,h,gm分别是独立神经网络的输出,v是输出对于参数的
导数。
2. for m = 1 to M do
3. 生成分布为p1,...pd,p 的随机样本(x;,...x;),...(xf,...,x;),(y1,.. ., yn )。
4. 更新h〜h-ad卑二曲(f )Vh1m /n
5. 更新h Jh -ad工他沖h /n
3+d . 更新 h Jh -ad工j0?(f )Vh; /n
4+d . 更新 gm J gm -ad码工0人 f )Vgm /n
5+d . 更新2 Jl-a^丄》0算(/)刃
n je J
6+d . 更新 rjr-a1 为 0?(f)Vj
n je J
7+d. End for
 
为了评估所获得的结果,我们需要考虑一下三个方面,第一个方面就是神 经网络的结构是否足够复杂;第二个是惩罚项的加入对于优化结果影响有多 大;第三个就是是否收敛到或者逼近最小值。
神经网络的具体结构设计在下一章实证会详细描述,但是通过前人的证明 和论证可以发现,在实证环节我们设计的神经网络结构是足够解决绝大多数问 题的,增加神经网络的复杂结构对于我们获得结果是没有帮助的。对于问题 二,在本文中使用的惩罚函数相比于普通的惩罚函数设置方法的优点就是不会 因为惩罚函数的加入产生误差,我们也会在优化过程中随时输出惩罚函数的数 值从而判断惩罚函数是否会对计算结果造成误差。所以对于第三个问题,根据 前人的研究结果和我们的实际研究结果发现,我们可以通过提高迭代次数和一 个批次所使用的样本个数来解决,这虽然会提高计算的复杂度和所需要的时 间,但是最后会获得收敛的结果。
第四章 实证研究
第四章 实证研究
4.1实证例一
首先,使用一个相对简单的例子对第三章所述的方法验证其可行性和准确
性,考虑下面的这个问题
 
式(3.5)中p和p2是服从0到1的均匀分布,同时p是同单调Copula函数连 接,即p是由两个完全正相关的0到1的均匀分布所组成的联合分布。所以上 面的问题我们可以写成
pe口 (p,p2 )reR dc (p,p)<P
=inf 磧 Q.
 
义相同。在后面的比较中,我们使用已有学者所做的解析解与我们的神经网络 解进行比较。在具体的实证过程中,令0=0.9,神经网络的超参数设置如下:
对于神经网络结构的构建方面,我们使用第三章展示的四层的前馈神经网 络,在超参数的选择上,一开始设置最大迭代次数 N0 — 5000。在此例中,通 过多次计算验证逐渐调整到 N — 3000,对于批量个数设置我105 ,学习率设为 0・0001 , 优化器的 选择方面使 用 Adam 优化器。 我们 对 于 y 初始值设为 y — 200 。
在神经网络的结构和参数设置好之后,为了深入了解神经网络方法的准确 度,所以使用不同的p值进行计算,结果表4.1。
表 4.1 实证一表
界限值 神经网络计算值 解析上界 解析下界
0.005 1.727 1.726 1.721
0.01 1.75 1.751 1.741
0.015 1.765 1.776 1.761
0.02 1.81 1.801 1.781
0.025 1.811 1.826 1.801
0.03 1.843 1.851 1.821
0.035 1.875 1.876 1.841
0.04 1.911 1.9 1.861
0.045 1.89 1.9 1.881
0.05 1.899 1.9 1.9
0.055 1.9 1.9 1.9
 
为了更加清晰了解神经网络计算结果的准确度,我们将上表数据做成这种线
图,使用折线图标将神经网络的计算结果与理论的上下界进行比较,
 
1.65
1.6
0.005 0.01 0.015 0.02 0.025 0.03 0.035 0.04 0.045 0.05 0.055
Wasserstein distance
|神经网络计算值 ■■■解析上界 解析下界
图 4.1 实证例一神经网络计算值
26
第四章 实证研究
从图 4-1 中可以发现,当p值为 0.005、0.01、0.015、0.025、0.03、0.035、 0.045和0.05时,神经网络的计算值都在解析的上下界的范围内。当p值为 0.02 和 0.04 时,神经网络的计算值大于解析的上界,这可能是由于神经网络的 复杂程度或者神经网络的超参数设定存在问题导致的误差,可以在后续研究中 继续改进。
从神经网络解决的结果与解析的上下界之间的比较来看,神经网络解决的 值基本在合理的范围以内。所以可以得出,神经网络计算的结果有较高的准确 度。在实际计算过程中,由于参数的设置等原因偶尔会出现达不到最优值或者 迭代次数过多的的情况,这可以通过调整参数和增多迭代次数来实现。但是对 于计算机的算力有较高要求,但总体来说,实证例一的结果基本证明了使用神 经网络进行计算的可行性和合理性。
4.2财险损失实证
然后我们考虑一个本文所论述的方法在财险公司风险管理中的应用:
财险公司的运行过程中,安全性和稳定性一直来说是至关重要的,其中经 济资本是一个十分重要的控制财险公司的风险的工具。经济资本从定义上来说 就是金融机构内部评估的配置给某项资产或者是某项业务的资本总额,而这项 资本的用处是为了缓冲这项业务或者资产产生的风险,所以经济基本还有另外 一个名称叫做风险资本。所以,充足的经济资本对于金融机构的平稳运行至关 重要,但是配置过多的经济资本又会限制金融机构经营的灵活性。所以对于金 融机构来说,对于经济资本的准确量化是至关重要的。
经济资本的准确量化换一个角度来说就是对于风险的准确量化。在财险公 司的的风险量化过程中,财险公司使用的方法一般都是首先将风险按业务线分 开量化,在量化过程中会使用不同的风险测度,例如传统的在险价值或者比较 新的期望损失。对于公司总体层面的风险量化而言,一般就是将多条业务线量 化的风险进行聚合,在聚合的过程中,最简单的方法就是就是将多条业务线测 算的风险进行加和,这种方法最为简单但是缺点也很多,其中最大的缺点就是 忽略了各条业务线直接的相关关系和依赖结构,从而常常对于风险的度量与实 际有着较大的差距。比较新的方法是使用Copula函数将个业务线测算的风险连
27
接起来,通过对于历史数据的拟合找到最好的 Copula 函数,从而得到最接近的 总的风险的分布,即对风险有着更加精确的度量。
在数据使用方面,我们从人保财险年度信息披露(年度信息-PICC中国人 民财产保险股份有限公司官网)中获取人保财险2008至2021年14个年度,5 种不同险种的损失率历史数据进行研究,损失率数据如下:
表 4.2 人保财险损失率数据
年度 车险 意外伤害与
健康险 企财险 货运险 责任险
2008 0.64781 0.525074 0.595509 0.396244 0.498593
2009 0.574495 0.537571 0.407649 0.395788 0.451246
2010 0.485005 0.549575 0.556503 0.40344 0.439948
2011 0.53247 0.437267 0.467184 0.361733 0.422953
2012 0.593242 0.48416 0.547324 0.387103 0.445888
2013 0.610966 0.505388 0.071953 0.421727 0.437286
2014 0.573658 0.625314 0.614708 0.424398 0.445656
2015 0.557622 0.730779 0.651768 0.504222 0.444736
2016 0.549142 0.756348 0.770744 0.509673 0.470055
2017 0.537349 0.772291 0.734284 0.533078 0.449928
2018 0.5676 0.740313 0.372441 0.394887 0.372129
2019 0.570893 0.739656 0.376691 0.364005 0.392376
2020 0.555346 0.902294 0.384014 0.302347 0.385226
2021 0.663037 0.698313 0.413927 0.268148 0.402279
 
这四个险种分别是企财险、车险、货运险、意外伤害与健康险和责任险的 历史数据,然后对这五种财险的损失率分布数据进行拟合,最后的拟合结果如 下:
第四章 实证研究
表 4.3 保险损失率表
险种 边际分布 参数估计
企财险 对数正态分布 p = -0.80602, a = 0.56039
车险 对数正态分布 p = —0.56024, b = 0.07675
货运险 对数正态分布 p= -0.92048,a = 0.1812
意外伤害与健康险 正态分布 p= 0.64317,a= 0.13782
责任险 正态分布 p= 0.43274,a= 0.03454
 
从上述拟合结果来看,各种财险的损失费率都符合对数正态分布,将上述的各
个险种带入第三章所构造的模型,我们可以得到下面这个问题,
 
=inf 吐 Q.
之后就可以使用期望损失对于各种险种的损失率进行风险聚合的测度。其 中置信水平设为0=0.9,惩罚系数丫设为1000。在神经网络的超参数设置方面, 为更加精准拟合函数,本例中使用五层的神经网络进行拟合,每个隐藏层有 64 个神经元,最大迭代次数 N0 = 30000。在此例中,通过多次计算验证逐渐调整 到 N = 20000 ,对于批量个数设置为105 , 学习率设为 0.00001,优化器的选择方 面使用 Adam 优化器。对于不同的 p 的计算结果如下:
表 4.4 多险种聚合期望损失表
Wasserstein 距离 0 0.005 0.01 0.015 0.02 0.025 0.03 0.035
期望损失 3.3341 3.4221 3.4812 3.5263 3.5753 3.6052 3.6442 3.6854
 
表 4.4 (续)
Wasserstein
距离 0.04 0.045 0.05 0.055 0.06 0.065 0.07 0.075
期望损失 3.7201 3.7425 3.7653 3.7803 3.7894 3.8011 3.8112 3.8101
 
我们将上述结果做成折线图,对随Wasserstein距离。的变化产生的期望损失极 值变化进行观察。
 
3.1
3
0 0.005 0.01 0.015 0.02 0.025 0.03 0.035 0.04 0.045 0.05 0.055 0.06 0.065 0.07 0.075
Wasserstein 距离
图 4.2 实证例二神经网络计算值
从表中我们可以看出,随着p的增加,期望损失值也在逐渐增加,这是合理 的,同时在实际研究过程中我们也可以发现,当p增大到一定值时,期望损失 就不再增加。与例一不同的是,期望损失相对于p的增加不是线性的,此现象 产生的原因可能是因为两例中分布的不同。
从两个例子中可以发现,随着p的增加,期望损失的极值都逐渐变大且最 后达到一个极值,而且可以根据不同的p值所得出的期望损失值刻画出期望损 失随p变化的曲线,这就可以根据实际情况对于期望损失的极值变化做出相对 准确的判断。这也给财险公司对于公司总体经济资本的配置给出相对准确的参 考值。使得财险公司运营中更加高效使用资本。
30
第五章 总结与展望
第五章 总结与展望
风险管理是一个非常热门的话题。在本文中,我们主要讨论了使用新方法 解决风险测度的极值的问题。论文主要分为理论部分和实证部分。
理论部分:在理论部分主要介绍了我们在模型构建中所要使用的方法和概 念。依次是 Wasserstein 距离 、模糊集、风险测度模型的前提和构造过程、模型 的对偶表示、风险测度的方法和本文使用的期望损失和神经网络模型。之后我 们为了使用神经网络对模型进行拟合,对模型的对偶结果进行改造,使用惩罚 函数的方法将对于风险的概率发布的限制加入方程,从而可以进行拟合。然后 我们提出来具体进行计算的神经网络算法和参数更新方式。
实证部分:在实证部分我们首先使用一个比较理想的理论分布进行方法的 验证,在证明方法的可行性之后我们采用前人对于保险公司的保险风险数据进 行实证研究,从而论证了我们方法具有实际意义。
从上述论证结果可以发现,使用神经网络进行风险的测度是可行的,并且 从简单的实例中我们发现模型具有一定的准确度。
对于本文使用的方法的展望而言,可以对模型进行多方面的改进,比如在 神经网络的结构选择方面。我们只是使用了最简单的神经网络结构,而现在的 神经网络发展非常快速有很多拟合效果和效率更高的神经网络结构可以选择, 可能会获得更好的结果。再有就是 Wasserstein 距离的选择上,我们只是使用了 一阶 Wasserstein 距离,如果使用更高阶的距离或者是其他概率分布之间测度可 能会有不一样的效果。此外就是对于风险的度量中我们使用的相对简单的数 据,神经网络模型对于更加复杂的数据的拟合效果是未知的。可以在后续的研 究中使用投资组合或者是某家公司所面临风险的数据进行进一步研究。
参考文献
[1]WILLIAM J. BAUMO1. An Expected Gain-Confidence Limit Criterion for Portfolio Selection[J]. Management Science, 1963, 10(2): 174-182.
[2]KNIGHT F. Risk, Uncertainty and Profit[M]. Boston: Houghton Mifflin Company, 1921: 682-690.
[3]PHILIPPE ARTZNER, FREDDY DELBAEN,JEAN-MARC EBER DAVID HEATH. Coherent Measure of Risk[J]. Mathematical Finance, 1999(3): 203-228
[4]CARLO ACERBI. Spectral Measures of Risk: A Coherent Representation of
Subjective Risk Aversion[J]. Journal of Risk & Insurance, 2002, 26(7):1505-1518.
[5]Standards, Basel Committee on Banking Supervision: Minimum capital requirement for market risk[M]. Switzerland: Basel Committee on Banking Supervision, Bank for International Settlements, 2016.
[6]MAKAROV G D. Estimates for the Distribution Function of the Sum of Two Random Variables with Given Marginal Distributions[J]. Journal of Experimental Medicine, 1993, 178(3): 997-1005.
[7]NELSON D P. On the Exact Computation of the Aggregate Claims Distribution in the Individual Life Model[J]. ASTIN Bulletin , 1986 , 16(2): 109-112.
[8]NELSON D P. Improved Approximations for the Aggregate Claims Distribution of a Life Insurance portfolio[J]. Scandinavian Actuarial Journal, 1988, 1988(1-3): 61-68.
[9]EMBRECHTS P, PUCCETTI G. Bounds for Functions of Dependent Risks[J].
 
 
 
WANG R. Aggregation-Robustness and Model
Uncertainty of Regulatory Risk Measures[J]. Finance and Stochastic,
2015, 19(4): 763-790.
参考文献
[11]PUCCETTI G, WANG R. Extremal Dependence Concepts[J]. Statistical Science,2015,30(4):485-517.
[12]PUCCETTI G, LUDGER RUSCHENDORF. Computation of Sharp Bounds on the Distribution of a Function of Dependent Risks[J]. Journal of Computational and Applied Mathematics, 2012, 236(7): 1833-1840.
[13]GIOVANNI PUCCETTI, LUDGER RUSCHENDORF. Bounds for Joint Portfolios of Dependent Risks[J]. Statistics & Risk Modeling, 2012, 29(2): 107132.
[14]BERNARD C, RUESCHENDORF L, VANDUFFEL S. Value-at-Risk Bounds with Variance Constraints[J]. The Journal of Risk and Insurance, 2017, 84(3): 923-959.
[15]LUX, THIBAUT, PAPAPANTOLEON, ANTONIS. Model-free Bounds on Value-at- Risk Using Extreme Value Information and Statistical Distances[J]. Insurance: Mathematics and economics, 2019, 86(May): 73-83.
[16]SHAPIRO A. Distributionally Robust Stochastic Programming [J]. SIAM Journal on Optimization, 2017, 27(4): 2258-2275.
[17]BAYRAKSAN G, LOVE D K. Data-Driven Stochastic Programming Using Phi- Divergences[M]. 2015.
[18]PFLUG G, WOZABAL D. Ambiguity in Portfolio Selection[J]. Quantitative finance, 2007, 7(4): 435-442.
[19]ESFAHANI, PEYMAN M, KUHN, DANIEL. Data-driven Distributionally Robust Optimization Using the Wasserstein Metric: Performance Guarantees and Tractable Reformulations[J]. Mathematical Programming, 2018, 171(1/2): 115-166.
[20]Rui G, KLEYEWGT A J. Distributionally Robust Stochastic Optimization with Wasserstein Distance[EB/OL]. (2016-04-08)[2022-02-01]. https://doi.org/10.48550/arXiv.1701.04200
[21]ZHAO CHAOYUE, GUAN YONGPEI. Data-driven Risk-averse Stochastic Optimization with Wasserstein Metric[J]. Operations Research Letters, 2018, 46(2): 262-267.
[22]HANASUSANTO GA, KUHN D. Conic Programming Reformulations of Two- Stage Distributionally Robust Linear Programs over Wasserstein Balls[J]. Operations Research. 2018, 66(3): 849-869.
[23]Chen Z, Yu P, Haskell WB. Distributionally Robust Optimization for Sequential Decision-making[J]. Optimization. 2019, 68(12): 2393-2422.
[24]INSOON YANG . A Convex Optimization Approach to Distributionally Robust Markov Decision Processes With Wasserstein Distance[J] . IEEE Control Systems Letters, 2017, 1(1): 164-169.
[25]Gao R, KLEYWEGT A J. Distributionally Robust Stochastic Optimization with Dependence Structure[EB/OL]. (2017-01-16)[2022-02-01]. https://doi.org/10.48550/arXiv.1701.04200
[26]BECK C, BECKER S, GROHS P. Solving Stochastic Differential Equations and Kolmogorov Equations by Means of Deep Learning[EB/OL]. (2018-061)[2022-02-01]. https://doi.org/10.48550/arXiv.1806.00421
[27]BERNER J, GROHS P, JENTZEN A. Analysis of the Generalization Error: Empirical Risk Minimization over Deep Artificial Neural Networks Overcomes The Curse of Dimensionality in The Numerical Approximation of Black-Scholes Partial Differential Equations[EB/OL]. (2018-0901)[2022-02-01]. https://doi.org/10.48550/arXiv.1809.03062
[28]E WEINAN,J HAN, A JENTZEN. Deep Learning-Based Numerical Methods for High-Dimensional Parabolic Partial Differential Equations and Backward Stochastic Differential Equations[J]. Communications in Mat hema tics & Stat is tics, 2017, 5(4): 349 - 380.
[29]HENRY LABORDERE P. Deep Primal-Dual Algorithm for BSDEs: Applications of Machine Learning to CVA and IM[EB/OL]. (2017-1115)[2022-02-01]. https://ssrn.com/abstract=3071506
[30]GULRAJANI I, AHMED F, ARJOVSKY M, COURVILLE A. Improved Training of Wasserstein GANs[J]. Advances in Neural Information Processing Systems, 2017, 2017-: 5768-5778.
[31]汪忠,黄瑞华.国外风险管理研究的理论、方法及其进展[J].外国经济与管
参考文献
理,2005(02):25-31.
[32]陈守东,孔繁利,胡铮洋.基于极值分布理论的VaR与ES度量[J].数量经济技术 经济研究,2007(03):118-124+133.
[33]李秀芳,毕冬.基于 Copula 函数的财险公司风险聚合和经济资本分散化效用研 究[J].保险研究,2016 (6):48-60.
[34]刘宇飞.VaR模型及其在金融监管中的应用J].经济科学,1999(01) :40-51.
[35]郑文通.金融风险管理的VAR方法及其应用[J].国际金融研究,1997(09):58-62.
[36]张维,李玉霜.商业银行信用风险分析综述J].管理科学学报,1998(03):22-29.
[37]张玲,张佳林•信用风险评估方法发展趋势[J].预测,2000(04):72-75.
[38]王春峰,万海晖,张维.基于神经网络技术的商业银行信用风险评估[J].系统工 程理论与实践,1999(09):24-32.
[39]杨保安,季海.基于人工神经网络的商业银行贷款风险预警研究[J].系统工程理 论与实践,2001(05):70-74.
[40]杨君岐,任瑞,阚立娜,任昊悦•基于BP神经网络模型的商业银行风险评估研究 [J].会计之友,2021 (5):113-119.
[41]彭程.期权设计、定价及风险管理[D].中国科学院大学,2021.
[42]姜秋香, 曹璐, 王子龙等. 基于 CVaR-TSP 的黑龙江城市水资源配置及风险管 理J].水利水电科技进展,2022, 42(1):40-46.
[43]魏正元,李乔,王雪等.期望损失(ES)的几种逼近法比较[J].重庆理工大 学学报(自然科学), 2021, 35(1):241-245.
[44]Kurt Hornik. Approximation Capabilities of Multilayer Feedforward Networks[J], Neural Networks,1991, 4(2):251-257.
【本文地址:https://www.xueshulunwenwang.com//jingjilei/jingjiguanli/4210.html

上一篇:有色金属铅采购套保项目案例分析一-以S公司为例

下一篇:通信公司应收账款风险及其管理对 策研究

相关标签: