ヴォラティリティの指数平滑化

SBI 証券(HyperSBI)や楽天証券(MarketSpeed)で表示される標準偏差は、標本標準偏差(1/(N-1))ではなく、ただの標準偏差(1/N)。それも、終値の素の値をそのまま標準偏差化しただけ。一般に Volatility の算出に使われる、対数差分の値に基いた標準偏差ではない。(標準偏差の算出期間を 2 日間にして確認した)。実は、 ボリンジャーバンド も、世間一般的にはこの(信頼性の劣る)方式の標準偏差を使って描いているようだ。 素の値の標準偏差と、対数差分の標準偏差でグラフ化して比較してみたが、生の値では、「上昇に敏感、下降に鈍感」になるので、生の値の標準偏差のグラフでは、対数差分のグラフには見られない、ダマシの上昇が発生していた。全体的にズボラに見れば〝誤差の範囲内〟と嘯いて片付けることもできるが、「ダマシ」という観点から見れば、これは致命的だろう。 また個人的に、ヴォラティリティについては低下に注視したいので、「下降に鈍感」なのはやはり困る。 通常の標準偏差の算出方法では、時間の観念(加重平均の発想)がなく、対象期間中の値を無差別に用いる単純平均によるものなので、短期的なヴォラティリティではグラフの形状が乱れるのが悩みどころ。何が困るかというと、新しい値動きに反応してヴォラティリティが変動してくれるのならいいのだが、単に、過去の大きな値動きが、対象期間からスワップアウトして外れたというだけで、値がガクッと下がる場合がある(ボリンジャーバンドで「スクィーズ」と呼ばれて持て囃されているものの正体がそれだと知って愕然とした)。こういう古いデータのスワップアウトによる影響を回避するために「こそ」指数平滑平均などの加重平均の発想がある(新しいデータに敏感にするため、というのは知ったか論だろう。そんなに新しいデータに反応させたければ、その分対象期間を短かくすればいいだけの話)。 とはいえ、一般的に、移動平均というのは、平均値を算出するためのものとして論じられており、それを「標準偏差の算出」に適用してもいいのだろうか? という疑問がある。だが、「 リスク管理最前線 第60回 〜ボラティリティの推定(その1)〜 」によると、分散の算出について、指数平滑化による漸化式を適用しているので、やっても構わないように思われる...