对风险度量工具―VAR的重新审视
由美国次级贷款危机引发的全球金融危机促使大家对本次金融危机深层动因进行反思,在金融风险管理领域,20世纪90年代以来被广泛应用于全球金融机构风险度量方法―VAR,受到了大家广泛质疑。在危机稍缓之际,本文结合最近相关文献,通过对VAR的审视与反思,指出VAR作为一种风险度量方法仍然有效。
一 、前言
从发展过程看,金融风险度量的主流方法和工具主要包括,偏差率、价差率等简单计算方法;以均值--方差为主的波动性分析方法;度量市场溢价敏感性的基于CAPM模型的贝塔系数方法;度量下方风险(downside risk)的VAR(Value at Risk)方法。相关方法还包括,压力测试和情景分析等等。20世纪90年代以来,VAR已经成为主流的风险度量方法和工具。由美国次级贷款引发的全球金融危机不仅给全球经济造成了巨大损失,更是激起全球范围内对本次金融危机深层动因的反思。在金融风险管理领域,20世纪90年代以来被广泛应用的风险度量方法―VAR,受到了大家质疑。本文结合相关文献,通过对VAR的优劣分析,指出VAR作为一种风险度量方法仍然有效。
二、VAR度量方法优劣
VAR(Value at Risk),即“在险价值”,表示处于风险状态的价值,用于度量金融资产或组合在未来资产价格波动下可能的损失。Jorion(1996)认为,VAR是在正常的市场波动条件下和给定的置信水平内,某种金融资产或资产组合在未来一段持有期内的最坏预期损失值。 用公式表示为:P(ΔP>VAR)=1-α或:P(ΔP 实践中,VAR的常用度量方法主要包括:历史模拟(Historical Simulation)、蒙特卡罗模拟(Monte Carlo Simulation)、ARCH、RiskMetrics等等。其中,历史模拟和蒙特卡罗模拟属于非参数方法;RiskMetrics 和ARCH属于参数方法。
RiskMetrics 和ARCH方法的优点体现在可以完整刻画资产组合收益率的方差波动特征,但这两大模型假设收益率基于正态分布假定,波动性和相关性不变,而实证显示金融资产收益具有厚尾、非对称的特征。因此,使用这两种方法度量出的VAR有低估倾向,此外,当资产组合过于庞大,模型中的方差、协方差难以保持正定矩阵。
历史模拟方法是利用历史数据去模拟资产组合的未来收益分布,给出一定置信度下的VAR 估计。其优点是简便易行,不需要对资产组合价值变化的分布作特定假设,无需进行参数估计,避免了模型风险。但其假设资产组合收益率在特定窗口期间具有相同分布,这与现实市场中收益率的聚集性和持续性特征相悖,对超出历史数据样本外的极端情景难以度量,而且本方法需要长期大量的历史数据支持,这难以完全满足,因而,历史模拟方法度量VAR的准确性难以保证。
Monte Carlo 模拟与历史模拟方法类似, 区别在于Monte Carlo 模拟是利用历史数据,基于随机方法模拟出大量的不同情景下的资产组合收益数值,进而度量VAR。Monte Carlo 模拟是全值估计,相对于历史模拟方法,其估算精度较高。不过Monte Carlo模拟计算量大,随机数中的群聚效应浪费了大量观测值,降低了模拟效率。
三、对VAR 的质疑
对VAR的质疑从未间断,主要集中在以上优劣分析中的模型假设前提和运用过程的数据要求方面,如:假设数据呈现正态分布、各个时间间隔的组合收益独立同分布、模型依靠历史数据或是在此基础上模拟等等。其中,Artzner等学者从经济逻辑上对风险度量方法一致性公理的论述,是对VAR模型提出质疑的典型代表。
Artzner等人(1997,1999)认为,设定一个实值随机变量集合V,风险度量是一个函数ρ:V→R,应满足以下几条公理:1)单调性(monotonous),对风险随机变量X,Y∈V,Y≥X⇒风险度量结果ρ(Y)≤ρ(X),其风险度量含义是如果一个资产组合优于另一个资产组合,则其投资风险也应相对较小;2)次可加性(sub-additive),对X,Y,X+Y∈V⇒ρ(X+Y)≤ρ(X) +ρ(Y ),其风险度量含义是投资组合可以分散投资风险,这是资产组合风险管理中最重要的公理;3)正齐次性(positive homogeneity),X∈V,h>0,hX∈V⇒ρ(hX)=hρ(X),其风险风险度量含义是如果资产头寸规模太大,导致流动性缺乏,则风险测度也将受到影响,应该避免头寸规模导致的流动性风险;4)转移不变性(translation inVARiance),X∈V,a∈R⇒ρ(X+a)=ρ(X)�a,其风险度量含义是在资产组合中增加常量资产a,则组合风险在原来基础上相应减少了a。
Pflug等学者(2001)提出,VAR 并不满足次可加性,这与Markowitz的投资组合可以降低投资风险的理论相悖。其它理论上的质疑包括,VAR 没有提供资产组合收益尾部信息,小概率大损失事件难以度量;Andersson(2001)指出,VAR是组合收益的非光滑非凸函数,存在多个局部极值,投资优化难度较大。
虽然理论上对VAR缺陷的质疑一直不断,但VAR概念简单,容易理解,能事前计算投资组合的风险,并能涵盖影响金融资产的各种不同市场因素,还可以计算由多个金融工具组成的投资组合风险,这些特点使得VAR在实践中成为主流风险度量方法。在此次金融危机,VAR受到了广泛指责,主要体现在极端事件数据的缺乏使得人们难以通过VAR预测近年来的市场突变。Nassim Nicholas Tableb(2008) 在其《黑天鹅》中更是猛烈抨击VAR,认为VAR无法度量实际中的“厚尾”事件。
四、对其它风险度量方法的简评
这次金融危机使我们对VAR有了更深的认识,首先,VAR更加适用于度量正常市场波动而不是极端市场波动下的风险;其次,VAR对流动性风险度量不足。学者已经提出很多建议对VAR模型加以补充,包括 CVAR和ES(Expected Shortfall)、极值理论(EVT,Extreme Value Theory)、利得损失差(GLS)等等, 其中ES, CVAR均满足风险度量的一致性要求;而利得损失差(GLS ,Gain-Loss Spread)方法(Javier Extrada,2008),被认为是一种直观的风险度量方法,比VAR能更好地将偏度和低端情况概率结合起来。实际上,由于样本数据区间、显著性水平等因素随着具体研究有所不同,各种风险度量模型都有优缺点,并无绝对优势,更多的是相互借鉴相互补充。
(一)条件在险价值与预期损失模型(CVAR and ES)
Acerbi 和Tashe(2002)、Frey和Mcneil(2002)认为,CVAR(conditional VAR)是一致性风险度量方法,表示基于正常市场波动和一定显著性水平,投资损失超过VAR的条件期望值。与VAR相比,CVAR提供了更多的关于资产收益的尾部信息,适合于对极端事件的风险预测。基于CVAR的预期损失模型(ES,Expected Shortfall)是对极端风险最直接的度量方法。Lisa GoldBerg、Michael Hayes、Jose Menchero 和Indrajit Mitra(2009)重新检验并且拓展了平均损失方法(average shortfall measure),认为“预期损失是有启发性的最直接的极端风险预测方法”,作为对于以波动率为基础的测量方法,预计损失对于尾部风险的形状非常敏感,并且能以较为直观的方式描述极端价格波动的特征。他们还拓展了基于单一组合平均损失的概念,来定义当极端市场变化出现时关联组合风险损失的增加量。这一新的指标被称为“Shortfall-Implied correlation”(潜在损失相关系数),它克服了对关联尾部波动存在高斯线性分布而难以预测其损失的难题。此类模型需要大量的样本数据支持,操作上有一定的难度。
(二) 极值模型(EVT)
EVT是研究具有小概率大冲击性质的随机变量极端数据的建模及统计分析方法。极值理论的核心问题是通过对极值事件的统计分析,评估极值事件的风险。极值分布建模方法主要有组类最大值法(BMM)和超阈值法(POT),其中,区组最大值法,是对于连续划分的足够大区组长度中最大观测值构成的样本进行建模;超阈值法,是对组类最大值法的改进,主要通过对样本数据中超过经验判断的阈值之上的所有观测值样本数据进行统计建模,只拟合分布的尾部特征,而不需要对整个分布进行建模 。
Diebold,Schuermann and Stroughair(1998);Embrechts(1999,2000a) 和FrancosM.Longin(2000)利用统计学中的极值理论(EVT,Extreme Value Thory)来计算金融市场极端情景下VAR。相关文献还包括,De Haan Jansen,Koedijk and de Vries(1994)用极值理论研究分位数估计。McNeil(1997,1999)用极值理论研究了金融时间序列剧烈损失分布的尾数估计和风险测量的分位数估计。L-C.Ho,P.Burridge,J.Caddle和M.Theobald(2000)应用极值理论研究亚洲金融危机,结论显示极值方法下的市场风险更贴近市场实际,优于传统的VAR度量方法。不过,T-Hlee,B.Saltogln(2002)通过对日本股票市场的风险测量,认为EVT与VAR在预测风险方面的结果没有大的差别。运用EVT模型来度量,通常不仅需要大量的样本观测数据,还需要相当准确的经验判断来确定阈值,实际操作难度较大 。
(三) 流动性风险度量模型(liquidity risk models)
Ernst等人(2009)经过实证,研究了七类流动性风险独立度量模型,这些模型的数据基础包括,买卖差数据、成交量数据和限价委托交易数据等。他们认为,基础数据是衡量各模型对日间风险度量精确度的主要因素。总体上,相对于建立在买卖差数据或成交量数据之上的流动性风险度量模型,基于限价委托交易数据的模型更具精确度。
虽然,流动性模型是VAR 模型的重要补充,但目前的模型数据基础侧重资本市场,对具有弱流动性的资产针对性不强。
五、审视与反思
(一)美国房地产泡沫:次贷危机导火索
“9・11”突发事件后,美国政府为了刺激经济发展不断降低利率,美国政府希望房地产市场发展成为经济增长的重要引擎之一,暗示信贷机构放宽贷款条件,向不具备偿还能力或资信能力差的家庭大量发放住房按揭贷款。这极大刺激了次级贷款(subprime mortgage loan)以及相关衍生产品业务的发展。同时,在美联储为振兴经济而维持低利率的环境下,金融机构大幅提高杠杆水平,选择高风险的投资策略。这些导致美国房地产市场常年保持景气状态,随着全球资金也被吸引进入相关领域,资产泡沫更加迅速膨胀,危机导火索从此埋下。
Demyanyk & otto van Hemert (2008)研究认为,美国房地产贷款质量早在2007年之前已经出现恶化迹象,只不过价格泡沫导致的低拖欠率掩盖了问题。Gorton(2008) 指出,当房地产市场价格没有随预期上升时,与之相关联的由房地产证券、金融衍生产品和表外工具形成的复杂链条无法透视风险所在及其规模,金融机构拒绝交易导致恐慌蔓延,次贷危机就此点燃。Brunnermeier(2009)总结认为,美国房地产泡沫膨胀的几个关键因素包括,低利率环境、美联储对房地产泡沫的宽容、美国银行资产证券化发展模式等等。
(二)VAR:仍具有效性
虽然危机不能归咎于VAR,但人们仍认为基于VAR的风险度量模型并没有提前给出警示,而是给出了过于乐观的预测。事实并非如此简单。Gunter Loffler(2009)利用常见的时间序列方法(ARCH),依照之前学者们对房地产价格的预测路径进行了重新检验。
Gunter Loffler(2009)研究认为,如果采用Case/Shiller全国住宅价格指数1987年到2005年数据,运用Monte Carlo方法模拟Q3 2005-Q3 2008年的季度价格变动,并以此构建相应期间的Case/Shiller全国住宅价格指数,通过极端情景分析,即使在0.1%的显著性水平上,也可以得出房地产价格相对平稳的结论,风险较小。这个结果与之前学者研究结果类似。实际上,1987-2005年间,美国房地产价格主要呈现上升态势,其间数据并不能完全反映价格动态变化,标准的DF 检验也难以拒绝价格非稳态的零假设,即这期间的房地产价格数据本身无法排除是处于不断上升的变动状态。
但是,如果考虑另外一个通用的房地产价格指数HPI,采用其1975年至2005年数据,使用差分自回归移动平均模型ARIMA对数据进行季节调整后,同样进行标准的DF检验,可以拒绝价格非稳态的零假设。然后通过同样的极端情景分析,结果表明,在1%和0.1%的显著性水平上,价格指数都低于实际状况。如果进一步引入GARCH方法,极端情景分析结果显示,模拟价格指数更低。
实践显示,银行业危机与房地产价格下坠关联较大。Reinhart and Rogoff(2008)指出,相比较1970-1990年间全球五大银行业危机(西班牙、挪威、芬兰、瑞典和日本),在次贷危机前美国房地产价格升幅更加明显。潜在的危机应该足以引起银行业重视,但是由于市场的主流观点认为灾难性的极端损失是极小概率,Fannie Mae等公司在危机前也发布乐观预期,因而银行业并没有充分进行相应研究和采取相应的预防措施。
实际上,其研究正是建立在大家广为诘责的VAR假设前提之上,包括:分布形态并没有考虑厚尾,历史数据缺乏极端事件等等。金融危机的发生是由多种因素导致的,不能简单认为风险度量模型无效。即使是在危机重要根源的房地产泡沫方面,目前VAR风险度量方法也能够有效预测价格的剧烈波动,只不过大家没有真正意识到这种警示。