Quantcast
Channel: himaginary’s diary
Viewing all articles
Browse latest Browse all 450

人工知能資産価格モデル

$
0
0

というNBER論文が上がっているungated(SSRN)版)。原題は「Artificial Intelligence Asset Pricing Models」で、著者はBryan T. Kelly(イェール大)、Boris Kuznetsov(Swiss Finance Institute @ EPFL*1)、Semyon Malamud(同)、Teng Andrea Xu(EPFL(スイス連邦工科大学ローザンヌ校))。
以下はその要旨。

The core statistical technology in artificial intelligence is the large-scale transformer network. We propose a new asset pricing model that implants a transformer in the stochastic discount factor. This structure leverages conditional pricing information via cross-asset information sharing and nonlinearity. We also develop a linear transformer that serves as a simplified surrogate from which we derive an intuitive decomposition of the transformer's asset pricing mechanisms. We find large reductions in pricing errors from our artificial intelligence pricing model (AIPM) relative to previous machine learning models and dissect the sources of these gains.
(拙訳)
人口知能の核となる統計技術は大規模なトランスフォーマー*2ネットワークである。我々はストカスティックディスカウントファクターにトランスフォーマーを埋め込んだ新たな資産価格モデルを提案する。この構造は、資産間の情報共有と非線形性を通じて条件付き価格情報を利用する。我々はまた、単純化された代用品として機能する線形トランスフォーマーを構築し、そこからトランスフォーマーの資産価格メカニズムの直観的な要因分解を導出する。我々はこの人工知能資産価格モデル(AIPM)から従来の機械学習モデルに比べた価格誤差の大きな減少を見い出し、その利得の源泉を分析した。

大規模言語モデル(LLM)においてトランスフォーマーは、コンピューターによる柔軟な扱いやすさを維持したまま言葉をモデル化できる画期的な技術だったが、それをここではストカスティックディスカウントファクター(SDF)に適用したとの由。その際、注意機構(attention mechanism)で情報共有を表現し、単純化した線形トランスフォーマーではその注意機構以外の非線形性を取っ払ったという。
Bryan T. KellyとSemyon MalamudはAPTか「AIPT」か? 大規模ファクターモデルの驚くべき優位性 - himaginary’s diaryで紹介した論文を別の共著者と書いており、この論文ではそちらをDKKMとして参照している。DKKMでは非線形だが注意機構を欠いたSDFを提示していたので、今回の論文ではモデルのパフォーマンスを検証する際の比較対象としており、シャープレシオが3.9から4.6に改善したと報告している。


Viewing all articles
Browse latest Browse all 450

Trending Articles