Tails of the unexpected
Paper by
Andrew G Haldane, Executive Director, Financial Stability and member of the Financial
Policy Committee and Benjamin Nelson, Economist, Financial Stability
Given at “The Credit Crisis Five Years On: Unpacking the Crisis”, conference held at the
University of Edinburgh Business School, 8-9 June
8 June 2012
http://www.bankofengland.co.uk/publications/Documents/speeches/2012/speech582.pdf
В течение почти столетия, в мире экономики и финансов доминирует случайность. Большая часть современной экономической теории описывает поведение как случайное блуждание, идет ли речь про финансовое поведение, такое как цены на активы (Cochrane (2001)) или экономическое поведение, такое как потребление (Hall (1978)). Cовременная эконометрическая теория также опирается на предположение о случайности в переменных и ошибках оценки (Hayashi (2000)).
Но, как Нассим Талеб напомнил нам, можно быть одураченным случайностью (Taleb (2001)). Для Талеба корень этой ошибки кроется в повсеместном применении в области экономики и финансов особого распределения возможных результатов в реальном мире. Для не-ботаников, это распределение часто называют колоколообразным. Для ботаников, это нормальное распределение. Для ботаников, которые любят поумничать это распределение Гаусса.
Нормальное распределение представляет собой удивительно простое описание мира. Результаты расположены симметрично вокруг средней, с вероятностью, которая постоянно убывает. Хорошо известно, что повторяющиеся случайные игры (repeated games of chance) выдают случайные результаты в соответствии с этим распределением: броски справедливой монеты, выборки цветных шаров из урны, ставки на числа в лотереи, игра камень / ножницы / бумага КНБ (от себя: в статье другой порядок paper/scissors/stone вики дает вообще http://en.wikipedia.org/wiki/Rock-paper-scissors). А может нет и мы все были обмануты случайностью?
В 2005 году Takashi Hashiyama столкнулся с дилеммой. Как генеральный директор японской электронной корпорации Maspro Denkoh, он продавал коллекцию импрессионистов принадлежащую компании, в том числе произведения Сезанна и Ван Гога. Но он был в нерешительности при выборе между двумя ведущими домами соперничающими за проведение аукциона Christie's и Sotheby`s. Тогда он предоставил решить дело случаю: два дома должны были сыграть в КНБ, победитель получал контракт на всю коллекцию.
В Сотбис решили, что игра случайная и поэтому "случайно" сыграли бумагу. В Кристи пошли по другому пути. Они использовали двух стратегических игроков-теоретиков - 11-летних дочерей-близнецов своего международного директора Николаса Маклина. Девочки играли «ножницы». Это был не случайный выбор. Зная, что камень играют чаще всего, девочки ожидали, что их оппонент сыграет бумагу. Ножницы принесли Кристи миллионы долларов комиссионных.
Как заявили девушки КНБ неслучайная игра. Сыграная несколько раз, она даст результаты далекие от нормальных. Вот почему многие сотни сложных алгоритмов были разработаны ботаниками (которые любят умничать) за последние двадцать лет. Они стремятся захватить закономерности в принятии стратегических решений, как близняшки. Именно поэтому, начиная с 2002 года проводится ежегодный международный чемпионат мира World Rock-Paper-Scissors Society.
Взаимодействия, которые порождают не нормальности (non-normalities) в детских играх повторяются в реальных системах - природных, социальных, экономических, финансовых. Там, где есть взаимодействие, есть ненормальность. Но риски в реальных системах это не игра. Они могут нанести ущерб от землетрясения и перебоев в подаче электроэнергии, до депрессии и финансового кризиса. Провал в распознании этих хвостов - обман случайностью - это риск катастрофической ошибки. Действительно ли экономика и финансы одурачены случайностью? И если да, то как это случилось? Это потребует от нас немного углубиться в историю.
Краткая история нормальности
(А) нормальность в физических системах.
Статистическая нормальность берет свое начало от серии физических экспериментов в 17-ом веке. Галилей обнаружил, многие из ее основных свойств при изучении расстояний до звезд. Он обнаружил, что случайные ошибки были неизбежны в инструментальных наблюдениях. Но эти ошибки образовывали отличительную, статистическую закономерность: небольшие ошибки встречались чаще, чем крупные и были симметричны вокруг истинного значения.
Это "возвращение к среднему" (reversion to the mean) было оформлено в 1713 году Якобом Бернулли на основе мысленного эксперимента с цветными шарами. [1] Чем большее количество раз из урны доставались шары определенного цвета, тем больше вероятность того, что среднее наблюдаемое число цветных шаров приблизилось к своему истинному значению. Хотя игра была простой у нее были далеко идущие последствия. Казалось достаточно проводить повторные эксперименты с закрытой выборкой и загадочный странный мир неопределенности можно было сделать простым и понятным.
Дата, когда нормальное распределение было официально представлено известна с большой точностью. 12 ноября 1733, второе издание Доктрины Шансов Абрахама де Муавра (The Doctrine of Chances by Abraham de Moivre) впервые представило кривую нормального распределения. Она была основана на распределение вероятностей другой повторяющейся случайной игры (ПСИ) - количество «орлов» ("heads"), которые появились, когда подбрасывалась честная монетка. Красота этого распределения была такова, что Муавр "отнес его к Всевышнему". [2]
Понимание нормальной кривой продвинули в начале 19-го века два математика, Карл Фридрих Гаусс и Пьер Симон де Лаплас. Гаусс, гений математики, использовал кривизну Земли дабы повысить точность географических измерений в баварских горах. Он отметил, что распределение оценок изменяется широко, но как правило, группируется вокруг средней симметрично с обеих сторон.
Гаусс также установил связь между кривой нормального распределения и особым подходом статистического анализа - методом "наименьших квадратов". Он стал основоположником метода наименьших квадратов, чтобы найти карликовую планету Церера, сводя к минимуму случайные ошибки из астрономических наблюдений ранее сделанных итальянским монахом Пиацци. Эта связь между нормальностью и методом наименьших квадратов продолжается и по сей день.
В 1810 году параллельно с работой Гаусса, Лаплас, создал теоретическое обоснование использования нормального распределения, достигнув этого без урн с шарами, подбрасывания монет и баварского ландшафта. Он показал математически, что сумма большого числа независимых друг от друга, одинаково распределенных случайных величин представляет нормальное распределение. Результаты Лапласа были первым появлением того, что сейчас известно как центральная предельная теорема.
Привлекательность нормальной кривой для ученых пытавшихся объяснить мир стала очевидной. Это обеспечило статистическую карту физического мира. Это привело к предположению о закономерности в случайных реальных данных. Кроме того, эти модели могут быть полностью описаны двумя простыми метриками - среднего и дисперсии. Статистическое окно в мир было открыто. Для умников 19-го века, гауссов мир был золотой жилой.
(Б) нормальность в социальных системах.
Не удивительно, что нормальное распределение быстро прижилось, по мере захвата точных наук оно стало применяться в социальных и биологических моделях. С начала 1830-х годов, бельгийский социолог Адольф Кетле (Adolphe Quetelet) стал применять нормальное распределение для изучения всевозможных человеческих качеств, физического и психического характера - от размера груди и высоты шотландских и французских солдат, до числа убийств и самоубийств, а также первого индекса массы тела. Человеческие качества, как планетарные атрибуты, казалось, также следуют контурам кривой колокола.
Кетле быстро осознал весь потенциал. Он был заклеймен как самый известный сторонник нормальности в 19 веке (Hacking (1990)), он разработал концепцию l’homme moyen (средний человек) для описания социальных характеристик населения в целом. 150 лет спустя, l’homme moyen появится в экономике в качестве репрезентативного агента.
Не один Муавр был очарован силами кривой нормального распределения. Для английского статистика Фрэнсиса Гальтона, закономерности нормальной кривой были гипнотического качества. Она: "... царит спокойно и в полном самоуничижение среди дикой растерянности. Огромнее толпы ... более совершенней ее влияние. Это высший закон безумия (law of Unreason). Всякий раз, когда вам в руки попадается большая выборка хаотических элементов ... неожиданная и самая красивая форма доказывает, что все они были связаны". [3]
Если бы греки знали о кривой, то скорее всего обожествляли бы ее, предположил Гальтон. Не то, чтобы все работы Гальтона были столь чисты и святы. Он высказался за использование данных о личностных характеристик для темных целей евгеники. В своей работе Наследственный гений, Гальтоном включена оценка доли людей, которые могут быть классифицированы как "выдающийся", основанная на их характеристиках - 1 из 4000.
Исследование Гальтоном наследственных характеристик человека пример возврата к среднему. Внешние характеристики человека - рост, вес, длина ресниц, неприятный запах изо рта - сводятся к некому среднему значению в течение долгого времени, по мере того как они передаются поколениями. Гальтон назвал это "наследственная регрессия к посредственности". Наследственная регрессия является основой для современной эконометрической регрессии.
Интересно, что до этого момента распределение Гаусса не имело имени. Несколько независимых упоминаний "нормального" распределения было отмечено примерно в одно и то же время в трех разных странах ((Peirce (1873), Galton (1877), Lexis (1877)). [4] Пирс обратил внимание на ровную кривую распределения ошибки измерений, допущенных при изучении резкого звука, генерируемого путем удара объекта о деревянную основу и назвал его "нормальным". К концу 19-го века, это имя окончательно укрепилось.
Семантический сдвиг был значительным. В середине 19 века слово «нормальный» приобрело современный смысл - "обычный". Затем оно быстро вошло в популярный лексикон. Статистическая нормальность стала частью этого этимологического пути. Нормальность стала вездесущей от простых азартных игр, до астрономии и социальных наук. В 18 веке нормальность была формализована. В 19-м веке социализирована. Нормальное распределение так назвали потому, что оно стало новой нормой.
Вплоть до конца 19 века, не было разработано никаких статистических тестов на нормальность. Оно стало символом веры и было неуместным вдаваться в вопросом его правильности. Как сказал Хокинг "благодаря синтезу суеверия, лени, двусмысленности, прострации из-за таблиц с огромным количеством цифр, мечте о социальном контроле, а также пропаганде утилитаристов, закон больших чисел стал априорной истиной". [5] Мы все сейчас дети Гаусса.
(С) Нормальность в экономических и финансовых системах
Примерно в это же время стали появляться первые отрасли экономки. Ранние модели экономической системы, разработанные экономистами классической школы были качественными и детерминированными. Такова была традиция ньютоновской физики объясняющей мир, используя классические детерминистские законы. Джевонс, Вальрас, Эджуорт и Парето "преобразовывали физику энергии в социальную механику полезности» (Mirowski (1989)).
Но в начале 20-го века, физика была в муках собственной интеллектуальной революции. Появление квантовой физики показало, что даже простые системы имеют непредвиденный случайный элемент. В физических системах, классический детерминизм неуклонно сменялся статистическими законами. Природным миром вдруг стала править случайность.
Экономика последовала в том же направлении, переходя от модели классического детерминизма к статистическим законам. Основания для такого сдвига заложили Евгений Слуцкий (1927) и Рагнар Фриш (1933). Они разделили динамику экономики на две части: нерегулярный случайный элемент или импульс и регулярный систематический элемент или механизма воспроизводства. Эта парадигма импульс / воспроизводство (impulse/propagation paradigm) остается основой макроэкономики и по сей день.
Аппарат Фриша-Слуцкого создал концептуальную систему, в рамках которой начали свое путешествие эмпирические макроэкономические модели. В 1932 году Alfred Cowles (http://cowles.econ.yale.edu/archive/people/directors/cowles.htm) создал Комиссию по исследованиям в области экономики (Cowles Commission for Research in Economics). К 1950 годам комиссия стала известна под именем Фонда Коулса (http://cowles.econ.yale.edu/), он являлся пионером в разработке крупных макро-эконометрических моделей, в том числе для анализа политики.
В основе макроэкономических моделей, разработанных фондом Коулса лежали две идеи: метод наименьших квадратов, для оценки механизма воспроизводства в экономике и нормальность случайных импульсов в системе. Обе они были близко связаны с Гауссом и Гальтоном. Эти два элемента, в принципе, независимы друг от друга - метод наименьших квадратов на самом деле не базируется на предположении о распределении ошибок. Но в последующие годы, эконометрические оценки и нормальность стали неразлучны.
В качестве доказательства этого, тесты на нормальность стали применяться в эконометрических моделях в 1970-х годах. Показательно, что эти тесты были использованы в качестве диагностической проверки адекватности модели. Обнаружение аномалий в ошибках, в экономике, как и в психиатрии, было принято считать изъяном модели, болезнью, требующей лечения. Как и в естественных науках в 19-м веке нормальность стала символом веры, являясь далеко не самым целесообразным статистическим предположением. Нормальность была социализирована.
Это направление мышления легко переместилось от экономики к финансам. Гарри Марковиц был членом Комиссии Коулса. В 1952 году он написал статью, которая заложила основы современной теории портфеля (Markowitz (1952)). Как и его современники и коллеги по комиссии, Марковиц предположил, что финансовые результаты (доходности) можно охарактеризовать только двумя параметрами средним и дисперсией - это удобно и согласуется с нормальностью. Это предположение имело решающее значение, ибо из него следует правило оптимального портфеля Марковица основанное на среднем и вариации.
Примерно в то же время, Кеннет Эрроу и Жерар Дебре (1954) создали первую подлинную экономическую модель общего равновесия. В этом мире Эрроу-Дебре, будущие состояния мира, как предполагалось, имеют свои познаваемые вероятности. Поведение агентов также предполагается известным. Это позволило модели Эрроу-Дебре явно определять цену риска, игнорируя при этом неопределенность. Рискованные (в терминологии Эрроу) ценные бумаги теперь могли быть оценены со статистической точностью. Эти ценные бумаги стали основной единицей современных моделей ценообразования активов.
С этого момента модели Марковица и Эрроу / Дебре, со встроенным предположения нормальности, доминировали ценообразование в экономике и финансах. В экономике, модель общего равновесия Дебре / Эрроу является интеллектуальной предшественницей современных моделей бизнес-цикла, которые являются основой макроэкономической теории последних 20 лет (например, Kiyotaki (2011)). Как правило, эти модели имеют гауссовское распределение импульсов движимых репрезентативными агентами в стиле Кетле.
В области финансов, доминирующие модели ценообразования построены на базе среднего / дисперсии Марковица и принципа количественного риска Эрроу-Дебре. Они тоже, как правило, опираются на нормальность. Например, широко известная модель Блэка-Шоулза (1973) для определения цены опциона была заимствована из статистической физики, где прочно укоренилась нормальность. Тоже касается используемых моделей кредитного риска, таких как Vasicek (2002). Случайно или преднамеренно, финансовые теоретики и практики все поголовно к концу 20-го века превратилась в полностью проплаченных членов секты Гаусса.
Оценка доказательств.
Теперь один ненормальный вопрос: до какой степени нормальное распределение является действительно хорошим статистическим описанием реального мира? В частности, насколько хорошо оно описывает поведение систем, будь то природные, социальные, экономические или финансовые? Доказательства против этого накапливаются на протяжении более 100 лет.
В 1870-х годах, немецкий статистик Вильгельм Лексис начал разрабатывать первые статистические тесты на нормальность. Поразительно но Лексис нашел, что единственной серией данных, которые точно соответствовали распределению Гаусса были данные по рождаемости. В 1929 году E B Wilson и M M Hilferty пересмотрели использование формальных статистических методов для данных используемых Пирсом (Wilson and Hilferty (1929)). Было установлено, что распределение исходных данных несовместимо с нормальной моделью.
Реальный мир вдруг стал чувствовать себя немного менее нормально. С тех пор становилось все больше свидетельств не совсем нормальности в различных реальных условиях. Вместо него, ученые часто обнаруживали поведение соответствующее альтернативному распределению, так называемому степенному закону распределения (power law distribution). Математически это выглядит так: P(X>x)~x^(-a) вероятность того, что случайная величина X превышает определенный уровень x пропорционально 1 / x^a. Другими словами,вероятность крупных событий убывает полиномиально их размерам. Это звучит достаточно безобидно.Но в мире Гаусса, вероятность крупных событий убывает экспоненциально с их размерами, что делает крупные события все более редкими все более быстрыми темпами.
При степенном распределении такие события являются намного более вероятными. Такое поведение в хвосте распределения делает степенной закон очень своеобразным. Жирные хвосты становятся обычным делом. Скорость распада хвоста определяется параметром a>0. Когда a падает, хвосты расширяются. И когда а принимает малое значение, многие концепции из мира Гаусса становятся с ног на голову. При нормальном распределении дисперсия и среднее вот и все что имеет значение. Для степенных законов с достаточно толстыми хвостами, среднего и дисперсии может даже не существовать. Технически, степенно распределенные данные имеют четко определенное среднее, когда а больше единицы, а дисперсия существует только при а большем двух.
В результате, центральная предельная теорема Лапласа не может применяться к степенному закону . Здесь не может быть «регрессии к среднему», так как среднее плохо определимо и дисперсия неограниченна. Поэтому средние и дисперсия могут рассказать нам гораздо меньше о нашем будущем с точки зрения статистики. Они больше не являются окнами в мир. С толстыми хвостами, будущее зависит от того, что статистики называют куртозис.
Чтобы стало немного понятнее рассмотрим статистические свойства множества природных, социальных и экономических систем, начиная с природных. Левая панель диаграмм 1-3 показывает плотности вероятностей солнечных вспышек, землетрясений и осадков. [6] Правая панель показывает преобразование этих данных. Оно очень удобно, так как позволяет сравнить данные с нормальной кривой, которая появляется в виде прямой линии. Таким образом, любое отклонение от прямой линии на окончаниях свидетельствует о ненормальных толстых хвостах. [7]
Все три графика явно демонстрируют жирный верхний хвост: случаи исключительно больших солнечных вспышек, землетрясений и осадков встречаются чаще, чем можно было бы предположить исходя из нормального распределения. В таблице 1 приведены статистические меры куртозиса. В норме, эта статистика будет равна 3. Для этих природных систем, куртозисы больше, а иногда гораздо больше, чем их нормальные аналоги.
Эти данные убедительно показывает, что законы физики могут генерировать очень ненормальное общесистемное поведение. Даже в системах без человеческого поведения, крупные неожиданные события - толстые хвосты - отличительная черта окружающего нас мира. Если предположить, что физический мир нормален, то мы можем значительно и очень широко недооценить риск природных катастроф.
Переход от физических систем к социальным свидетельствует, что толстые хвосты столь же сильны и там. Графики 4-6 представляют собой три социальных системы: частота, с которой разные слова появляются в романе Моби Дик, частота цитирований научных исследований, и численность населения городов США. [8] Хотя нам кажется, что между этими тремя наборами данных нет никакой взаимосвязи на самом деле это не так: каждый из них по-своему формируется под общим человеческим фактором - социальным взаимодействием.
Графически, ясно, что все эти три социальных системы имеют большой верхний хвост. В действительности все они подчинены степенному закону распределения. Например, для размера городов это распределение называется законом Ципфа (как впервые отметил Ауэрбах (1913)) (http://economix.blogs.nytimes.com/2010/04/20/a-tale-of-many-cities/ http://ru.wikipedia.org/wiki/%D0%97%D0%B0%D0%BA%D0%BE%D0%BD_%D0%A6%D0%B8%D0%BF%D1%84%D0%B0 http://arxiv.org/abs/cond-mat/0412004/). У него есть одно поразительное свойство: самый большой город в два раза больше второго по величине, в три раза больше третьего и так далее. Сравнительно аналогичная картина наблюдается и в распределении имен, богатства, слов, войн и продаж книг, и среди многих других вещей (Gabaix (2009)).
Куртозисы в таблице 1 показывают, что "толстохвостие" занимает значительное место как в человеческих, так и природных системах. Например, для землетрясений он около 3000 раз больше, чем для нормального распределения, для размера городов в 2000 раз больше. Как гибрид, мы можем ожидать, не нормальности в экономической и финансовой системе тоже. Чтобы оценить это взглянем на графики 7-10 где приведены данные о: ВВП, ценах на рис, банковском кредите и ценных бумагах. Они взяты из различных стран и на длительной дистанции - данные о кредите и ВВП в течение более чем столетия, цены на акции в течение более чем трех столетий, а цены на рис в течение тысячелетия. [9]
В каждой из этих четырех серий, есть визуальное свидетельство толстых хвостов. Статистические показатели куртозиса в таблице 1 подтверждают это. Хвосты кажутся толще в финансовых (equity returns и bank credit), чем макроэкономических сериях (ВВП). Но для обоих, жирность хвостов является значительной. Чтобы было понятнее попробуем рассмотрем последствия игнорирования этих хвостов в реальной жизни, для примера возьмем договор страхования предназначенный для защиты от катастроф в хвостах распределения результатов. В частности, предположим, что этот договор страхования производит выплаты только, если результаты более чем на четыре стандартных отклонения выше их среднего значения в течение одного года (или ниже для экономической серии). При нормальном распредеделнии, выплаты можно было бы ожидать очень редко. [10]
Теперь оценим справедливую сумму страховой премии по данному контракту. Она может быть рассчитана на основе двух взаимоисключающих предположений: во-первых, при условии нормального распределения результатов, а во-вторых при использовании наблюдаемых, широких хвостов. Разница между ними приведена в таблице 2. Эти различия огромны. Для экономических и финансовых серий, они, как правило, кратны 100 или даже больше. Предположение о нормальности приведет к массовому занижению цены страхования от катастрофических рисков на два порядка. Это неправильное ценообразование на экономические риски (падение производства), столь же опасно, как и стихийные бедствия (например, землетрясения).
Иными словами, рассмотрим подразумеваемые вероятности падения ВВП и цен на акции величиной в три стандартных отклонения. Предполагая нормальность, риск катастроф такого масштаба будет примерно один раз в 800 лет для ВВП и один раз в 64 года для акций. В действительности, по ВВП такие события происходят примерно раз в сто лет, а для акций каждые 8 лет.
Объясняя толстые хвосты.
Так как же объяснить эти злосчастные хвосты в естественных и социальных системах? Ключ ко всему - взаимодействия. Центральная предельная теорема основывается на предположении о независимости наблюдений. В сложных системах, природных и социальных, это предположение почти наверняка будет нарушено. Системы являются системами именно потому, что они являются взаимозависимыми. В двух словах, именно поэтому так мало систем ведут себя нормально в статистическом смысле. Это взаимодействие может принимать различные формы.
(А) Нелинейная динамика.
В качестве одного примера из физического мира рассмотрим погоду. Первые метеорологические службы были созданы в середине 19-го века, чтобы помочь прогнозировать экстремальные погодные явления, которые могут помешать торговли. Вплоть до конца 19-го века, эти офисы использовали изобарические графики в качестве основы для прогнозирования (Davis, 1984)). Физики часто смотрели на метеорологов со скептицизмом. Они были френологами науки под названием чтение изобарических ударов.
Все изменилось в начале 20-го века. В 1904 году Вильгельм Бьеркнес создан набор из семи уравнений с семью неизвестными отвечающими за эволюцию атмосферы. Это дало теоретическую основу для метеорологии. Система сама по себе была сложной, с нелинейностями, которые вытекали из взаимодействия между атмосферными конвекциями. Но если начальные условия были установлены правильно, она могла быть решена с помощью численных методов для получения детерминированных состояний будущей погоды. Как выяснилось позже это если, было очень большим если.
В 1963 году американский метеоролог Эдвард Лоренц занимался созданием прогнозов погоды на своем компьютере. Вернувшись после кофе-брейка, он обнаружил, что новый результат выглядел совершенно другим по сравнению с предыдущим. Он стал разбираться в чем дело и пришел к выводу, что всему виной крошечная ошибка округления в начальных условиях. Из этого он сделал вывод, что для нелинейных динамических систем, таких как погодные условия, существует сверхострая чувствительность к начальным условиям. Хаос родился (Gleick (1987)).
Лоренц сам использовал этот результат и сделал довольно мрачный вывод: прогноз погоды за горизонтом двух недель, по существу, ничего не стоит. И мрак скоро распространился. После вывода Лоренца, хаотическая динамика была обнаружена на всем протяжении естественного и человеческого мира, начиная от гравитационных сил и заканчивая ростом населения.
Эта хаотическая динамика имеет важные последствия для всей системы поведения. Небольшие изменения в системе могут привести к радикально другим результатам. Переломный момент (Tipping point) или, по словам Лоренца, эффект бабочки стал расползаться повсюду. В отличие от большей части экономики и финансов, равновесие часто является ни единственным, ни стабильным. Возврат к среднему дает очень ограниченное представление о будущем, часто потому, что самого фиксированного среднего может не быть. Жирные хвосты расползаются в каждом направлении.
Экономика и финансы далеко не чужды моделям нелинейной динамики. В 1980-х, они были использованы для изучения экономического цикла (Grandmont (1985)), оптимального роста (Day (1983)) и потребительского выбора (Benhabib and Day (1981))). Но развитие теории реального делового цикла, с ее линейными правилами принятия решений и репрезентативным агентом, заглушали эти работы в течение большей части последних двух декад.
За последние пять лет появилось много доказательств нелинейности в экономической и финансовой системе.Хаос, метафорический и математический, вышел на первый план. Нетрудно определить некоторые структурные особенности, которые, возможно, способствовали этой хаотической динамике. Плечо одно из них. Рост кредитного плеча был ключевой особенностью докризисного бума и последующего краха. Использование кредитного рычага генерирует широкую нелинейную реакцию всей системы на изменения в доходах и чистом богатстве (Thurner et al (2010)), подобно тому что обнаружил Лоренц.
(Б) Самоорганизующаяся критичность
В погодных системах, хаотическая динамика и переломные моменты описываются физическими законами управляющими системой. В других случаях, система автоматически организует себя в хрупкие состояния, постоянно что называется сидит на острие ножа. Такие системы называются системами самоорганизованной критичности (self-organised criticality) (Bak (1996)).
Классическим примером является куча песка. Представьте себе, построение кучи песка, по крупицам. Каждое зерно независимо и одинаково распределено, в стиле Лапласа. Но распределение этой системы не соответствует центральной предельной теореме. Вы добавляете песчинки и образуются мини-каскады. В какой-то момент эти лавины превышают последствия добавления дополнительных крупинок и куча осыпается. Куча песка достигла самоорганизующегося критического состояния.
Другой пример из мира природы это лесные пожары. Представьте себе участок земли, где в течение долгого времени случайно высаживались деревья, столь же случайно как и удары молний, которые могли бы привести к пожару. Когда начинался пожар, он распространялся на соседние деревья. Со временем, лес придет в критическое состояние, где, в большинстве случаев, пожаров мало и они ограничены по площади. Но в некоторых случаях, случайный удар молнии может вызвать катастрофический пожар уничтоживший весь лес. Затем система возобновит свою самоорганизацию обратно к критическому состоянию.
Самоорганизованная критичность была найдена и в человеческих системах тоже. Пример автомобильная трасса, трафик имеет тенденцию к конвергенции на критическую скорость, при которой риск затора или аварии значительно возрастают. Как и у песчаной кучи и лесных пожаров, динамика движения может иметь фазовый переход. Добавление одной дополнительной песчинки, одной целенаправленной молнии, одного превышения скорости автомобиля, может подтолкнуть систему из критического состояния в катастрофу на толстом хвосте.
Самоорганизованная критичность нашла себя и в некоторых темных уголках экономики и финансов. Bak, Chen, Scheinkman and Woodford (1993) разработали модель, в которой потрясения для отдельной фирмы независимы и одинаково распределены, как и отдельные песчинки. Но цепочки поставок между фирмами самостоятельно организуют колебания по всей экономике, как каскады в куче песка. В финансах, Бенуа Мандельброт (1963) обнаружил, что цены на акции демонстрируют поведение в соответствии с теорией самоорганизованной критичности. Бум в докризисные времена предоставляется еще одним примером самоорганизующейся критичности. Битва за доходности среди финансовых компаний заставляет их увеличивать для получения все больших результатов. Доходности в этой куче песка растут до запредельных величин, пока система приводит себя в состояние высоко риска. В этом критическом состоянии, еще одной небольшой порции риска - одной сабпрайм песчинки - было достаточно, чтобы привести всю гору, в неконтролируемый каскада (Haldane (2012a)).
(С) Предпочтения (Preferential Attachment)
Ни нелинейная динамика ни самоорганизующаяся критичность не полагаются на поведение человека или социальное взаимодействие. Введение человеческого поведения для усиления взаимодействия в рамках системы приведет к дальнейшему расширению хвостов. Социальные сети, в отличие от физических или биологических сетей, во многом определяются этими взаимодействиями. Без них сеть просто не существовала бы.
Социальные сети, будь то школьные классы, церкви, бары и World Wide Web, были тщательно изучены (Jackson (2010)). Как сети, они обладают некоторыми общими топологическими особенностями. Например, большинство из них имеют большое количество слабо связанных агентов и относительно небольшое число сильно связанных агентов. Почему так? Одним из объяснений является так называемое преференциальное связывание (preferential attachment).
Представьте себе сеть узлов, изначально связаных случайным образом. Теперь предположим, добавляется новый узел, связанный с существующими узлами с наибольшей степенью. Здесь и появляется преференциальное связывание (preferential attachment) Понять почему так происходит достаточно просто, по крайне мере на интуитивном уровне. Популярность заразна и самореализуется. В результате сеть будет характеризоваться высокой степенью связи для нескольких центральных узлов. Она будет распределена согласно степенному закону (Barabasi and Albert (1999)).
Нигде динамика формирования таких сетей не предстает столь наглядно как во всемирной паутине. Люди скорее всего подключатся к блогу или твитеру с большим количеством читателей, чем малым. Почему? Потому что популярность может быть сигналом качества - феномен Стивена Фрая. Или потому, что, даже если качество низкое, популярность может быть самореализующейся - феномен Ким Кардашян.
Та же динамика работает в большинстве, если не во всех, социальных и социально-экономических сетей. Преференциальное связывание объясняет распределение веб-ссылок, цитирования академических работ и друзей в Facebook (Barabasi and Albert (1999)). Оно объясняет и распределение размеров городов (закон Ципфа). И также объясняет результаты стратегических игр, как для взрослых (стратегического ядерного оружия) так и для детей (КНБ). Все что мы так хорошо знаем подчиняется степенному закону. Преференциальное связывание имеют свою историю и в экономике тоже.
Кейнс рассматривал процесс формирования ожиданий более восхитительным зрелищем, чем супер-компьютер (Keynes (1936)). Агенты формируют свои предпочтения не на объективной оценке качества (Стивен Фрай), но в соответствии с тем что они думают, что другие могли бы залайкать (Kim Kardashian). Стивен Фрай имеет чуть более 4 млн. последователей в Twitter. Ким Кардашян имеет 15 миллионов.
Такая овечья логика создает несколько равновесий, ожидания, как овцы расходятся по разным загонам. Некоторые из равновесий могут быть хуже других. Классическим примером в области финансов является модель банковской паники Diamond and Dybvig (1983). Если вкладчики буду думать, что другие владельцы депозитов собираются их снять, они сами побегут в банк. Финансовая непопулярность становится заразной. Люди вне очереди в Northern Rock в 2007 году вели себя также как люди читающие твиттер Ким Кардашян в 2012 году. В обоих случаях наблюдалось субоптимальное равновесие.
Такие координационные игры появляются в самых различных условиях. Связи могут быть как физические, эволюционные, финансовые, социальные. (Haldane (2012b)). Каждая приводит к нелинейной динамике системы, по причине эффектов бабочки и фазовых переходов при смене ожиданий. Финансовый кризис был пронизан примерами такого рода поведения, от банкротства Lehman Brothers до кризиса в еврозоне. В каждом случае, цепочки ожиданий создавали панику и страх плохого равновесия.
(Г) Высоко-оптимизированная толерантность (Highly-Optimised Tolerance)
Некоторые системы организуются в критическом состоянии сами по себе. Другие будут попадать туда не без помощи человека. Другими словами, в некоторых критичность может быть рукотворной. Они часто описываются как системы высоко оптимизированной толерантности (Carlson and Doyle (2002)). Рассмотрим модель лесных пожаров. Но теперь пусть у нас есть лесник, который отвечает за урожайность леса измеряемую по количеству посаженных деревьев. Лесник сталкивается с выбором.Более плотно засаженный лес даст большую урожайность.Но это также создает системный риск пожара, который может уничтожить большие площади и снизит урожайность деревьев в будущем. Как найти правильный баланс?
Оптимальный ответ лесника - создание противопожарных разрывов. Их должно быть больше в районах, где удары молнии случаются чаще. В районах, где они встречаются редко, лесник может позволить себе большую плотность. Такое расположение максимизирует ожидаемую доходность. Но это также приведет к появлению системных лесных пожаров. Более того, если лесник ошибется при подсчете вероятностей удара молнии, система может быть суб-оптимальна, т.е. подвержена катастрофическому разрушению. В любом случае, результатом будет "толстохвостие" распределения размера лесных пожаров.
Эти же самые вмешательства человека были особенностью финансового кризиса. До кризиса регуляторы устанавливали коэффициенты достаточности капитала на основе оценки рискованности активов банков. Эти оценки были несовершенны. Оглядываясь назад, мы понимаем, что активы, которые были недооценены с точки зрения риска (trading book assets, sovereign debt) стимулировали банки инвестировать в них. Финансовый сектор организовал себе критическое состояние, с высокой степенью риска причиной тому стало несовершенное регулирование из лучших побуждений.
Взятые вместе частички пазла создают общую картинку. Не трудно представить, экономическую и финансовую системы где есть некоторые, а возможно, и все, из этих особенностей - нелинейность, критичность, заразность (non-linearity, criticality, contagion). Это особенно важно в период кризиса. Там где присутствует взаимодействие, ненормальности всегда будут где-то рядом. В действительности наблюдаемая экономическая и финансовая интеграция лишь усиливает эти связи, тем самым создавая простор для хаоса и толстых хвостов, а потому мы можем предположить, что впереди нас ждут еще более веселые времена.
Что дальше?
Исходя из этого, что можно сделать, чтобы лучше распознавать ненормальности и управлять ими? Жирные хвосты содержат важные уроки для экономики и финансов. Они также содержат некоторые важные уроки для экономической и финансовой политики.
(А) Ненормальность в области экономики и финансов.
Как и Муавр в 18-ом веке и Гальтон в 19-м, экономисты на протяжении большей части 20-го века были заколдованны нормальностью. Теория реального делового цикла в экономике и теория эффективных рынков в сфере финансов являются явными признаки этого интеллектуального увлечения. То же касается большей части эконометрики. Все трое уходят своими корнями в модели Фриша / Слуцкого и Эрроу / Дебре, с нормальными импульсами действующими на линейные правила воспроизводства (распространения linear propagation rules). Ожидаемо, это порождает почти гауссовские результаты для макро-экономических показателей.
Но последние пять лет реальный мир ведет себя таким образом, что сделал их пустыми. Перед лицом потрясений, иногда весьма скромных, экономический и финансовый мир часто реагировал непредвиденными и "ненормальными" способами. Все это были переломные точки и фазовые переходы. Разрыв между теорией и реальностью был очевиден. Экономика и финансы, как и Sotheby`s, возможно, были одурачены случайностью.
Теперь для того,чтобы сделать шаг вперед, экономистам и финансистам может потребоваться шаг назад. В 1921 году Фрэнк Найт обратил внимание на важное различие между риском, с одной стороны и неопределенность с другой (Knight (1921)). Риск возникает тогда, когда статистическое распределение будущего может быть рассчитано или известно. Неопределенность возникает, когда это распределение не поддается исчислению, или быть может, неизвестно.
Многие из крупнейших интеллектуалов в экономике 20 века воспринимали это различие серьезно. В самом деле, они поместили неопределенность в центре внимания своих политических предписаний. Кейнс в 1930 годах, Хайек в 1950х, и Фридмана в 1960-х годах все подчеркивали роль неопределенности, в отличие от риска, когда дело касалось понимания экономических систем. Хайек критикует экономику в целом и экономическую политику, в частности, за то что они работают с "претензией знания" (Hayek (1974)).
Тем не менее, риск вместо неопределенности, доминировал последние 50 лет в экономической профессии. Предполагая, что будущее состояния мира были заранее известны благодаря нормальному распределению Эрроу и Дебре оценили риск со статистической точностью и проблема неопределенности была изящно решена.
Неопределенность была, в буквальном смысле, исключена из уравнения. Но если экономическая и финансовая системы работают на границе между порядком и беспорядком, игнорировать неопределенность просто нереально. Неопределенность глубоко влияет на способ поведения системы. Возьмите ценообразование активов. В условиях неопределенности, а не риска, цены на активы уже не определяются одной ценой. Вместо этого их равновесная цена определяется диапазоном (Epstein and Wang (1994)). Цены систематически отличаются от своих фундаментальных оценок. Если неопределенность растет, они испытывают фазовые сдвиги. Caballero and Krishnamurthy (2008) изучили последствия финансовой неопределенности для системного риска.
В ответ на кризис, сейчас наблюдается широкий интерес к моделированию экономических и финансовых систем, как сложных, адаптивных сетей. На протяжении многих лет работы основанные на агентно-ориентированном моделировании и сложные системы были небольшой частью экономики и финансов. Кризис дал этим моделям новую жизнь, помогая объяснить разрывы очевидные в последние годы (например, Kirman (2011), Haldane and May (2011)).
В этих рамках, многие из основных особенностей существующих моделей должны быть отвергнуты. Кетлевский средний человек заменяется взаимодействием нерепрезентативных агентов, в Twitter-стиле. Единственное, стационарное равновесие сменяется нестационарными равновесиями в стиле Лоренца. Линейность Фриша-Слуцкого сменяет система переломных моментов как в песочной куче. В экономике и финансах это поведение близко аналитическому правилу.
Впрочем, эти типы систем далеко не чужды для физиков, социологов, экологов и многих других. Их распространение в экономике позволит точнее предствать к каким последствиям в реальном мире приводят толстые хвосты в распределении. Это потребует довольно фундаментальное переосмысление основ современной экономики, финансов и эконометрики.
(Б) Ненормальность и управления рисками.
Инструменты управления рисками использующиеся финансовыми учреждениями, во многом, находятся еще на большем расстоянии от реальности, чем экономическая теория. В качестве примера этого, рассмотри модель Value-At-Risk (VaR) широко используемую банками для оценки и управления портфельными рисками.
VaR является статистической мерой риска разработанной JP Morgan в 1990 году. Этот показатель измеряет максимальный убыток по данному портфелю на определенном уровне доверия в течение определенного периода времени. Например, если у банка 10-дневный 99% VaR составляет $ 3 млн. человек, то считается что существует только 1% шанс, что потери превысят $ 3 млн в течение 10 дней. Таким образом VaR может быть использован для набора лимитов риска для портфелей трейдеров. Она также может быть использован для установки нормативов и стандартов капитала для этих портфелей. Простота VaR привела к его повсеместному использованию в области финансов (Jorion (2006)).
Но как мера риска VaR страдает роковым недостатком: он по сути ничего не говорит о рисках в хвосте за пределами доверительного интервала. Например, даже если 99% VaR трейдера составляет $ 10 миллионов, ничто не мешает ему сконструировать портфель, который обеспечивает 1% шанс убытков на $ 1 млрд. VaR закрывает глаза на этот риск и нормативные требования к капиталу оказываются серьезно занижены.
Но что еще хуже, так это недооценка толстых хвостов. Рассмотрим глобальный портфель акций, основанный на данных от 1693 до 2011 года, рассчитаем для него VaR. 99% VaR предполагая, что данные являются нормальными, дает потерю в 6 триллионов долларов по сегодняшним ценам.Использование фактических данных повышает его примерно на треть до $ 7,8 трлн.Наконец, расчет рисков, отвечающих за 1% хвоста распределения дает потерю в $ 18,4 трлн. Простой VaR недооценивает риск на коэффициент 1,5 и 3.
Этот пример является далеко не гипотетическим. Недостатки VaR были наглядно проиллюстрированы в период кризиса. Можно утверждать, что эти кризисные уроки были выучены. Но это далеко не так. В мае этого года, Risk magazine опросил риск-менеджеров необходимо ли отменить VaR. Большинство ответило нет. И как мера риска хвоста, VaR продолжает удивлять не в лучшую сторону.
10 мая, JP Morgan объявил потери на общую сумму в 2 миллиарда долларов на портфель корпоративных кредитных рисков. Мир, и руководство JP Morgan, были застигнуты врасплох. В конце концов, до объявления этой новости 95% VaR на этот портфель в первом квартале 2012 года было всего лишь $ 67 миллионов. Это VaR мера была пересмотрена в сторону повышения до $ 129 млн. в день объявления. Является ли это доказательством более точной оценки потерь на хвосте, или же их по-прежнему не было видно.
Эти оценки активов и проблемы управления рисками не начинаются и не заканчиваются VaR. Многие финансовые инструменты имеют графики выигрышей как у опционов. С начала 1970-х годов, эти риски, как правило, оценивались с использованием формулы Блэка-Шоуэлза. Но эта модель предполагает нормальность доходностей. Если доходности подчиняются степенному закону, то Блэк-Шоуэлз - если принимать его за чистую монету - может привести к неправильной оценке риска.
Одним из примеров этого является проблема в области финансов известная как "улыбка волатильности". Подразумеваемые волатильности (volatilities implied) в формуле Блэка-Шоулза обычно выглядят как "улыбка". Иными словами, подразумеваемая волатильность больше, на концах - например, для опционов глубоко вне денег. Одно из объяснений загадки в том, что исходное распределение доходности является "толстохвостым". Это повышает стоимость опционов глубоко вне денег по отношению к формуле Блэка-Шоулза и остальных подразумеваемых волатильностях.
Представьте себе ценообразование опциона на рис на основе данных за последние 1000 лет. Предположим, что сегодняшняя цена годового опциона составляет $ 100, страйк глубоко вне денег и в трех стандартных отклонениях выше среднего. Предполагая нормальное распределение на изменение цен, этот опцион будет стоить один цент. Если использовать фактическое распределение цены на рис то его справедливая стоимость будет 37 центов. Нормальность встроенная в формулу Блэка-Шоулза будет генерировать огромное неправильное ценообразование риска катастроф.
Переходя от рыночных к кредитным рискам рассмотрим модель Vasicek (1991). В базовой версии оценивается корреляция каждого актива в портфеле банка с общим фактором риска. Модель Vasicek лежит в основе многих крупных банков в рамках управления рисками. Например, она обычно используется, чтобы определить их потребности в капитале в соответствии с внутренним рейтингом на основе Базельской моделиinternal ratings-based (IRB) Basel framework (BCBS (2005). Но в формировании распределения ожидаемых потерь портфеля, стандартные приложения модели Vasicek предполагают, что основные факторы риска, и, следовательно, потери портфеля, распределены нормально.
Предположим, что общим фактором в модели Vasicek является рост ВВП, и считается, что он нормально распределен. Согласно подходу IRB Базеля II, и предполагая, результаты в хвосте с вероятностью 0,1% для общего фактора, буфер капитала в базовом сценарии для покрытия непредвиденных потерь составит около 3%. [11]
Теперь спросите, что произойдет, если использовать реальные данные распределения ВВП на протяжении последних трех веков. при базовом подходе, необходимый буферный капитал вырастает в четыре раза примерно до 12%. Tarashev and Zhu (2008) провести формальное изучение степени неправильного ценообразования кредитного риска в соответствии с моделью Vasicek. Они считают, что требования к капиталу могут быть от 20% до 85% выше, если предполагать толстые хвосты.
Другой популярный эмпирический подход к моделированию кредитного риска, в частности, соотношения между активами в структурированных кредитных продуктах, это так называемый копула метод (Noss (2010)) (http://en.wikipedia.org/wiki/Copula_(probability_theory)). Копула описывает взаимозависимости между стоимостью активов и, как правило, предполагается, нормальной. Если совместное распределение между активами на самом деле имеет широкие хвосты, копула будет систематически неправильно оценивать риск структурированных кредитных инструментов. Так было во время кризиса, и небольшие различия в корреляции привели к драматическим изменениям в цене.
Все эти примеры ненормальности указывают на необходимость переосмысления фундаментальных инструментов управления рисками используемых в настоящее время многими финансовыми компаниями. Это включает в себя, что немаловажно, модели, используемые для установки нормативных требований к капиталу. Даже после кризиса, слишком многие из этих моделей остаются обманутыми нормальностью и одураченными случайностью. Кключевая ошибка приведшая к кризису по прежнему остается в строю и по сей день.
(С) Ненормальность и системный риск.
Некоторые из рисков хвоста, стоящие перед финансовыми фирмами действительно трудно точно откалибровать. Это потому, что они создаются эндогенно в системе в результате поведения других участников (Danielsson et al (2009)). Потому что, их поведение ненаблюдаемо, тоже касается рисков, стоящих перед отдельными банками. Это потенциально серьезный пробел управления рисками.
Этот разрыв наиболее очевидно может заполнить некоторые системные службы по надзору, способные контролировать и, возможно моделировать движущиеся части финансовой системы. В докризисные времена было мало, если вообще было, таких системных регулирующих органов. Но за последние несколько лет появилось несколько подобных учреждений - the Financial System Oversight Council (FSOC) в США, the European Systemic Risk Board (ESRB) в Европе и the Financial Policy Committee (FPC) в СК - то есть как минимум три. Одним из положительных эффектов создания таких органов может быть карта системного риска.
Эта карта может служить основой для планирования управления рисками отдельных финансовых компаний.Как и в прогнозировании погоды, регулятор системных рисков может обеспечить раннее предупреждение рисков чтобы принять необходимые оборонительные меры. Действительно, эволюция прогноза погоды может дать полезные уроки для финансов - и некоторые основания для оптимизма.
После Второй мировой войны, метеорологи были одними из первых апологетов вычислительной техники. Вычислительные мощности компьютеров, безусловно, были ключом к достижениям в области прогнозирования погоды. Основной причиной для пессимизма Лоренца о прогнозировании была проблема сбора и обработки данных. Современные компьютеры значительно расширили эти ограничения. Компьютер Метеобюро Великобритании может обрабатывать 10^11 вычислений в секунду, и использует сотни тысяч глобальных наблюдений каждый день.
Результаты были поразительны. Ошибки в прогнозировании погоды демонстрируют многолетний спад. Сегодня четырехдневный прогноз столь же точен, как однодневный прогноз 30 лет назад. Прогнозы имеют прогностическое значение далеко за пределами двухнедельного горизонта. В самом деле, предсказания климатических моделей в настоящее время оформляются в горизонте 100 лет. [12] Пессимизм Лоренца был неуместен. Финансы могли бы следовать этим шагам.
Сегодня уже предпринимаются международные шаги по расширению и углублению финансовых данных, которые могли бы использовать системные регуляторы для того, чтобы закрыть этот пробелы на глобальной карте. Как и в прогнозировании погоды, это будет способствовать улучшению оценки начальных условий финансовой системы. И как в прогнозировании погоды, важно, что эти данные записываются в общий финансовый язык подлинно глобальной карты (Ali, Haldane and Nahai-Williamson (2012)).
Эти данные затем должны быть объединены с помощью набора моделей поведения в экономической и финансовой системе. Экономика не имеет преимущества метеорологов - четко определенных физических законов. Но, объединив эмпирически мотивированные поведенческие правила большого пальца, и балансы ограничений, мы можем начать строительство молодой модели системного риска. [13]
В Банке Англии, работы над такой моделью велись задолго до кризиса. The Risk Assessment Model for Systemic Institutions (RAMSI) сочетает в себе макро-экономические и финансовые данные, позволяющие проводить моделирование и стресс-тесты финансовой системы Великобритании (Aikman et al (2009)). Она генерирует системные риск-метрики и распределения, которые можно использовать для предупреждения о надвигающихся угрозах. Показательно, что распределения результатов в финансовой системе имеют, как правило, очень не-нормальные, толстые хвосты.
Определение контуров системного риска, это одно. Перепрофилирование этих контуров это совсем другое. Международные регуляторы только недавно приступили к выполнению задачи калибровки нормативных правил по риску с прицелом на систему, в отличие от отдельных учреждений. Еще предстоит много работы. Нормативные правила прошлого стремились отразить риск. Нормативным правилам будущего необходимо искать для отражения неопределенности.
Это требует совершенно иного, а иногда казалось бы, порочного подхода. В условиях неопределенности, многие наши интуитивные нормативные правила большого пальца становятся с ног на голову: медленное может быть быстрее, меньше может быть больше, легкое может быть тяжелым. Инстинктивно комплексной финансовой системе, как кажется, потребуются сложные правила управления. И в условиях риска это верно. Но при неопределенности, однако, это не совсем так. Тогда оптимальные правила контроля, как правило, просты (DeMiguel et al (2009)). Меньше значит больше (Gigerenzer and Brighton (2008)).
Причина того, что меньше может быть больше в том, что сложные правила, менее устойчивы к ошибкам в спецификации. Они по сути своей хрупки. Модель Гарри Марковица оптимального портфеля способствовала миллионам инвестиционных решений на протяжении последних 50 лет - но, что интересно, не его собственным. На пенсии Марковиц на самом деле использовал гораздо более простой одинаково взвешенный подход. Это, как Марковиц считал, был более надежный способ навигации по толстым хвостам неопределенности инвестиций (Benartzi и Thaler (2001)).
Регуляторы начинают учить некоторые из этих уроков. Основой регулирования в течение последних 30 лет была более сложная оценка соотношения капитала банков. Они склонны к проблемам высоко оптимизированный толерантности. Поэтому в будущем регуляторы будут требовать от банков выполнять гораздо более простые меры по левериджу. Как пенсионный портфель Марковица, с равными весами активов в портфеле банка. Как и этот портфель надеемся они будут более устойчивы перед толстыми хвостами.
Второй тип простых, но надежных, регулирующих правил это создание гарантий для самых худших сценариев. Технически, это идет под названием «минимаксной» стратегии (Hansen and Sargent (2011)).
Просеки созданные в некоторые физических системах могут сыграть именно эту роль. Они обеспечивают ограниченность риска критических состояний, возникающих в сложных системах, как в самоорганизации, или из-за искусственного вмешательства. Эти противопожарные просеки начинают находить свое отражение в языке и практики регулирования. Правило Волкера в США и Викеровские предложения в Великобритании очень в этом духе. Конструктивные решения разделения по-прежнему вызывают смесь скептицизма и ужаса у многих регуляторов и риск менеджеров. Конечно, на первый взгляд они кажутся довольно грубыми в сравнении с устройством управления рисками.
Под неопределенностью, однако, это то что нужно. В сложных, неопределенных условиях, только такие просеки способны защитить от системного коллапса действуя на структуру системы в целом, а не поведение каждого в ней. В предотвращении лавинной опасности, не имеет смысла устанавливать ограничения на размер и форму каждой песчинки. Гораздо разумнее оценить структуру и форму всей кучи песка в целом.
Наконец, в нестабильном мире, точная настройка мер политики может иногда стоить потенциально очень много. Сложные правила вмешательства могут просто добавить свою лепту к существующей неопределенности в системе. Это во многом старый урок Хайека о претензии на знание, в сочетании со старым урок Фридмана об избежании вреда от политики. Это все имеет отношение к нормативно-правовой среде, которая появилась в течение последних нескольких лет.
И аргументы позволяют сделать еще один шаг вперед. Попытки тонкой настройки управления рисками могут добавить к вероятности катастроф толстых хвостов. Ограничения небольших неровностей на дороге может сделать систему, в частности, социальную систему, более склонной к системному краху. Почему? Потому что, вместо того, чтобы выпускать пар в малых всплесках давлениях, регуляторы будут накапливать давление под поверхностью, и в конце концов приведут к извержению вулкана. Taleb and Blyth (2011) использовали такой подход, чтобы объяснить события до и после арабской весны.
Заключение
Нормальность была общепринятым стандартом в экономике и финансах более 100 лет. Тем не менее, в реальных системах, ничто не может быть менее нормальным, чем нормальность. Хвост не должен быть неожиданным, так как они являются правилом. Поскольку мир становится все более интегрированной - в финансовом, экономическом, социальном плане - взаимодействие между движущимися частями может еще расширить толстые хвосты. Катастрофичный риск может быть на подъеме.
Если государственная политика относится к экономической и финансовой системе, как к лотерее - случайная и нормальная - то государственная политика рискует сама стать лотереей. Предотвращение катастрофы требует, чтобы мы лучше понимали и строили контуры системного риска, толстые хвосты и все прочее. Это также означает внедрение надежных защитных механизмов, чтобы остановить хаос от новых песчинок в нашей гигантской куче песка или огромном лесу. До тех пор, нормальная работа вряд ли возможна.
СНОСКИ
[1]Bernstein (1998).
[2]Bernstein (1998).
[3]Bernstein (1998).
[4]Stigler (1999).
[5]Hacking (1990).
[6]The Data Annex provides a definition of these series.
[7]More precisely, it signals a fat tail if the observed distribution lies to the left of the straight line at the bottom of the chart and to the
right of the straight line at the top of the chart. This means that extreme events have a larger probability than that suggested by the
normal distribution.
[8]The data source is Newman (2005).
[9]The Data Annex provides a definition of these series.
[10]Around once every 31,000 years
[11]Assuming loss given default of 45%, probability of default of 1% and asset correlation of 10%.
[12]For example, see the Fourth Assessment Report of the Intergovernmental Panel on Climate Change (IPCC, 2007).
[13]A recent example would be the calibrated, agent-based model of Geanakoplos et al (2012).
ССЫЛКИ НА РАБОТЫ
Aikman, D, Alessandri, P, Eklund, B, Gai, P, Kapadia, S, Martin, E, Mora, N, Sterne, G, Willison, M
(2009), “Funding liquidity risk in a quantitative model of systemic stability”, Bank of England Working Paper
No. 372.
Ali, R D, Haldane, A G and Nahai-Williamson, P (2012), “Towards a common financial language”,
available at http://www.bankofengland.co.uk/publications/Documents/speeches/2012/speech552.pdf.
Auerbach, F (1913), “Das Gesetz der Bevölkerungskonzentration”, Petermanns Geogr. Mitt. 59,74–76.
Arrow, K J and Debreu, G (1954), “Existence of an Equilibrium for a Competitive Economy”, Econometrica,
Vol. 22, No. 3, pp. 265-290.
Bak, P, Chen, K, Scheinkman, J and Woodford, M (1993), “Aggregate fluctuations from independent
sectoral shocks: self-organized criticality in a model of production and inventory dynamics”, Ricerche
Economiche.
Bak, P (1996), “How nature works: the science of self-organized criticality”, Copernicus.
Barabasi, A L and Albert, R (1999), “Emergence of scaling in random networks”, Science, 286(5439), pp.
509-12.
Basel Committee on Banking Supervision (2005), “An Explanatory Note on the Basel II IRB Risk Weight
Functions”, Bank for International Settlements.
Benartzi, S and Thaler, R (2001), “Naïve diversification strategies in defined contribution saving plans”,
American Economic Review, Vol 91, 1, pp.79-98.
Benhabib, J and Day, R H (1981), “Rational Choice and Erratic Behaviour”, Review of Economic Studies 48 (3), pp. 459-471.
Bernstein, P (1998), “Against the Gods: the remarkable story of risk”, John Wiley & Sons.
Black, F and Scholes, M (1973), “The Pricing of Options and Corporate Liabilities”, Journal of Political
Economy, Vol 81 (3), pp. 637-654.
Caballero, R J and Krishnamurthy, A (2008), “Collective Risk Management in a Flight to Quality Episode”,
The Journal of Finance, vol 63 (5), pp. 2195-2230.
Carlson, J M and Doyle, J (2002), “Complexity and robustness”, PNAS 99(1), pp. 2538-45.
Cochrane, J H (2001), “Asset Pricing”, Princeton University Press.
Danielsson, J, Shin, H S and Zigrand, J-P (2009), “Risk Appetite and Endogenous Risk”, available at
http://papers.ssrn.com/sol3/papers.cfm?abstract_id=1360866.
Davis, J L (1984), “Weather Forecasting and the Development of Meteorological Theory at the Paris
Observatory, 1853-1878”, Annals of Science, 41(4) pp.359-382.
Day, R H (1983), “The Emergence of Chaos from Classical Economic Growth”, Quarterly Journal of
Economics, 98, pp. 201-213.
DeMiguel, V, Garlappi, L and Uppal, R (2009), "Optimal Versus Naive Diversification: How Inefficient is the 1/N Portfolio Strategy?", The Review of Financial Studies, 22(5), pp. 1915-1953.
Diamond, D W and Dybvig, P H (1983), “Bank runs, deposit insurance, and liquidity”, Journal of Political
Economy 91(3), pp. 401–19.
Epstein, L G and Wang, T (1994), “Intertemporal asset pricing under Knightian uncertainty”, Econometrica,
62(3), pp. 283-322.
Frisch, R (1933), “Propagation Problems and Impulse Problems in Dynamic Economics”, in Economic
Essays in Honour of Gustav Cassel. Eds.: London: Allen and Unwin, pp.171-205.
Gabaix, X (2009), “Power laws in economics and finance”, Annual Review of Economics, 1 pp. 255-93.
Galton, F (1877), “Typical laws of heredity”, Nature,15, pp. 492-553.
Geanakoplos, J, Axtell, R, Farmer, D J, Howitt, P, Conlee, B, Goldstein, J, Hendrey, M, Palmer, N M,
Yang, C-Y (2012), “Getting at systemic risk via an agent-based model of the housing market”, American
Economic Review, 102(3): 53–58, May.
Gigerenzer, G and Brighton, H (2008), "Homo Heuristicus: Why Biased Minds Make Better Inferences",
Topics in Cognitive Science (1), pp. 107-143.
Gleick, J (1987), “Chaos: Making a New Science”, Viking.
Grandmont (1985), “On Endogenous Competitive Business Cycles”, Econometrica, 53, pp. 995-1045.
Hacking, I (1990), “The Taming of Chance”, Cambridge University Press.
Haldane, A G (2012a), “On counterparty risk”, available at
http://www.bankofengland.co.uk/publications/Documents/speeches/2012/speech571.pdf.
Haldane, A G (2012b), “Financial arms races”, available at
http://www.bankofengland.co.uk/publications/Documents/speeches/2012/speech565.pdf.
Haldane, A G and May, R M (2011), “Systemic risk in banking ecosystems”, Nature (469), 351-355.
Hall, R E (1978), “Stochastic implications of the life cycle-permanent income hypothesis”, Journal of Political
Economy 86 (6), pp. 971-87.
Hansen, L P and Sargent, T (2011), “Wanting robustness in macroeconomics”, in Friedman, B. M. and
Woodford, M. (eds) Handbook of Monetary Economics, Vol 3B, North-Holland.
Hayashi, F (2000), “Econometrics”, Princeton University Press.
Hayek, F A (1974), "The Pretence of Knowledge", Nobel Memorial Prize Lecture.
IPCC (2007), “Climate Change 2007: Synthesis Report”, Intergovernmental Panel on Climate Change.
Jackson, M O (2010), “Social and economic networks”, Princeton.
Jorion, P (2006), “Value at Risk: The New Benchmark for Managing Financial Risk”,
3rd Edition, McGraw-Hill.
Keynes, J M (1936), “General theory of employment, interest and money”, Macmillan Cambridge University
Press.
Kirman, A (2011), “Complex Economics: Individual and collective rationality”, New York: Routledge.
Kiyotaki, N (2011), “A perspective on modern business cycle theory”, Federal Reserve Bank of Richmond
Economic Quarterly, 97(3), pp. 195-208.
Knight, F H (1921), “Risk, Uncertainty and Profit”, Houghton Mifflin Company, Boston.
Lexis, W (1877), Theorie der Massenerscheinungen in der menschlichen Gesellschaft.
Mandelbrot, B (1963), “The variation of certain speculative prices”, Journal of Business, XXXVI, pp. 394-
419.
Markowitz, H M (1952), "Portfolio Selection." Journal of Finance, 7 (1), pp. 77-91.
Mirowski, P (1989), “The Probabilistic Counter-Revolution, or How Stochastic Concepts came to
NeoclassicalEconomic Theory”, Oxford Economic Papers, 41(1), pp. 217-235.
Newman, M E J (2005), “Power laws, Pareto distributions and Zipf’s law”, Contemporary Physics, 46 (5), pp.323-51.
Noss, J (2010), “Extracting information from structured credit markets”, Bank of England Working Paper
Series No. 407.
Peirce, C S (1873), “Theory of Errors of Observations”, Report of the Superintendent US Coast Survey,
Washington, Government Printing Office, Appendix no. 21, pp. 200-224.
Schularick, M and Taylor, A M (2009), “Credit Booms Gone Bust: Monetary Policy, Leverage Cycles and
Financial Crises, 1970-2008”, NBER Working Paper Series 15512.
Slutsky, E (1927), “The Summation of Random Causes as the Source of Cyclical Processes”, Econometrica
(5), 105-146.
Stigler, S (1999), ‘Statistics on the Table: the History of Statistical Concepts and Methods’, Harvard
university press.
Taleb, N N (2001), “Fooled by Randomness: The Hidden Role of Chance in Life and in the Markets, Random House & Penguin.
Taleb, N N and Blyth, M (2011), “The Black Swan of Cairo: How suppressing Volatility Makes the World
Less Predictable and More Dangerous”, Foreign Affairs 90 (3), 33-39.
Tarashev, N and Zhu, H (2008), “Specification and Calibration Errors in Measures of Portfolio Credit Risk:
The Case of the ASRF Model,” International Journal of Central Banking (4), 129–174.
Thurner, S, Farmer, D. J., Geanakoplos, J. (2010), “Leverage causes fat tails and clustered volatility”,
Cowles Foundation Discussion Paper No 1745R.
Wilson, E B and Hilferty, M M (1929), “Note on C.S. Peirce’s Experimental Discussion of the Law of
Errors”, Proceedings of the National Academy of Sciences of the United States of America, 15(2), pp. 120-
125.
Vasicek, O (1991), “Limiting loan loss probability distribution”, KMV Working Paper.
Vasicek, O (2002), “Loan portfolio value”, RISK, December 2002, pp. 160-162.
Paper by
Andrew G Haldane, Executive Director, Financial Stability and member of the Financial
Policy Committee and Benjamin Nelson, Economist, Financial Stability
Given at “The Credit Crisis Five Years On: Unpacking the Crisis”, conference held at the
University of Edinburgh Business School, 8-9 June
8 June 2012
http://www.bankofengland.co.uk/publications/Documents/speeches/2012/speech582.pdf
В течение почти столетия, в мире экономики и финансов доминирует случайность. Большая часть современной экономической теории описывает поведение как случайное блуждание, идет ли речь про финансовое поведение, такое как цены на активы (Cochrane (2001)) или экономическое поведение, такое как потребление (Hall (1978)). Cовременная эконометрическая теория также опирается на предположение о случайности в переменных и ошибках оценки (Hayashi (2000)).
Но, как Нассим Талеб напомнил нам, можно быть одураченным случайностью (Taleb (2001)). Для Талеба корень этой ошибки кроется в повсеместном применении в области экономики и финансов особого распределения возможных результатов в реальном мире. Для не-ботаников, это распределение часто называют колоколообразным. Для ботаников, это нормальное распределение. Для ботаников, которые любят поумничать это распределение Гаусса.
Нормальное распределение представляет собой удивительно простое описание мира. Результаты расположены симметрично вокруг средней, с вероятностью, которая постоянно убывает. Хорошо известно, что повторяющиеся случайные игры (repeated games of chance) выдают случайные результаты в соответствии с этим распределением: броски справедливой монеты, выборки цветных шаров из урны, ставки на числа в лотереи, игра камень / ножницы / бумага КНБ (от себя: в статье другой порядок paper/scissors/stone вики дает вообще http://en.wikipedia.org/wiki/Rock-paper-scissors). А может нет и мы все были обмануты случайностью?
В 2005 году Takashi Hashiyama столкнулся с дилеммой. Как генеральный директор японской электронной корпорации Maspro Denkoh, он продавал коллекцию импрессионистов принадлежащую компании, в том числе произведения Сезанна и Ван Гога. Но он был в нерешительности при выборе между двумя ведущими домами соперничающими за проведение аукциона Christie's и Sotheby`s. Тогда он предоставил решить дело случаю: два дома должны были сыграть в КНБ, победитель получал контракт на всю коллекцию.
В Сотбис решили, что игра случайная и поэтому "случайно" сыграли бумагу. В Кристи пошли по другому пути. Они использовали двух стратегических игроков-теоретиков - 11-летних дочерей-близнецов своего международного директора Николаса Маклина. Девочки играли «ножницы». Это был не случайный выбор. Зная, что камень играют чаще всего, девочки ожидали, что их оппонент сыграет бумагу. Ножницы принесли Кристи миллионы долларов комиссионных.
Как заявили девушки КНБ неслучайная игра. Сыграная несколько раз, она даст результаты далекие от нормальных. Вот почему многие сотни сложных алгоритмов были разработаны ботаниками (которые любят умничать) за последние двадцать лет. Они стремятся захватить закономерности в принятии стратегических решений, как близняшки. Именно поэтому, начиная с 2002 года проводится ежегодный международный чемпионат мира World Rock-Paper-Scissors Society.
Взаимодействия, которые порождают не нормальности (non-normalities) в детских играх повторяются в реальных системах - природных, социальных, экономических, финансовых. Там, где есть взаимодействие, есть ненормальность. Но риски в реальных системах это не игра. Они могут нанести ущерб от землетрясения и перебоев в подаче электроэнергии, до депрессии и финансового кризиса. Провал в распознании этих хвостов - обман случайностью - это риск катастрофической ошибки. Действительно ли экономика и финансы одурачены случайностью? И если да, то как это случилось? Это потребует от нас немного углубиться в историю.
Краткая история нормальности
(А) нормальность в физических системах.
Статистическая нормальность берет свое начало от серии физических экспериментов в 17-ом веке. Галилей обнаружил, многие из ее основных свойств при изучении расстояний до звезд. Он обнаружил, что случайные ошибки были неизбежны в инструментальных наблюдениях. Но эти ошибки образовывали отличительную, статистическую закономерность: небольшие ошибки встречались чаще, чем крупные и были симметричны вокруг истинного значения.
Это "возвращение к среднему" (reversion to the mean) было оформлено в 1713 году Якобом Бернулли на основе мысленного эксперимента с цветными шарами. [1] Чем большее количество раз из урны доставались шары определенного цвета, тем больше вероятность того, что среднее наблюдаемое число цветных шаров приблизилось к своему истинному значению. Хотя игра была простой у нее были далеко идущие последствия. Казалось достаточно проводить повторные эксперименты с закрытой выборкой и загадочный странный мир неопределенности можно было сделать простым и понятным.
Дата, когда нормальное распределение было официально представлено известна с большой точностью. 12 ноября 1733, второе издание Доктрины Шансов Абрахама де Муавра (The Doctrine of Chances by Abraham de Moivre) впервые представило кривую нормального распределения. Она была основана на распределение вероятностей другой повторяющейся случайной игры (ПСИ) - количество «орлов» ("heads"), которые появились, когда подбрасывалась честная монетка. Красота этого распределения была такова, что Муавр "отнес его к Всевышнему". [2]
Понимание нормальной кривой продвинули в начале 19-го века два математика, Карл Фридрих Гаусс и Пьер Симон де Лаплас. Гаусс, гений математики, использовал кривизну Земли дабы повысить точность географических измерений в баварских горах. Он отметил, что распределение оценок изменяется широко, но как правило, группируется вокруг средней симметрично с обеих сторон.
Гаусс также установил связь между кривой нормального распределения и особым подходом статистического анализа - методом "наименьших квадратов". Он стал основоположником метода наименьших квадратов, чтобы найти карликовую планету Церера, сводя к минимуму случайные ошибки из астрономических наблюдений ранее сделанных итальянским монахом Пиацци. Эта связь между нормальностью и методом наименьших квадратов продолжается и по сей день.
В 1810 году параллельно с работой Гаусса, Лаплас, создал теоретическое обоснование использования нормального распределения, достигнув этого без урн с шарами, подбрасывания монет и баварского ландшафта. Он показал математически, что сумма большого числа независимых друг от друга, одинаково распределенных случайных величин представляет нормальное распределение. Результаты Лапласа были первым появлением того, что сейчас известно как центральная предельная теорема.
Привлекательность нормальной кривой для ученых пытавшихся объяснить мир стала очевидной. Это обеспечило статистическую карту физического мира. Это привело к предположению о закономерности в случайных реальных данных. Кроме того, эти модели могут быть полностью описаны двумя простыми метриками - среднего и дисперсии. Статистическое окно в мир было открыто. Для умников 19-го века, гауссов мир был золотой жилой.
(Б) нормальность в социальных системах.
Не удивительно, что нормальное распределение быстро прижилось, по мере захвата точных наук оно стало применяться в социальных и биологических моделях. С начала 1830-х годов, бельгийский социолог Адольф Кетле (Adolphe Quetelet) стал применять нормальное распределение для изучения всевозможных человеческих качеств, физического и психического характера - от размера груди и высоты шотландских и французских солдат, до числа убийств и самоубийств, а также первого индекса массы тела. Человеческие качества, как планетарные атрибуты, казалось, также следуют контурам кривой колокола.
Кетле быстро осознал весь потенциал. Он был заклеймен как самый известный сторонник нормальности в 19 веке (Hacking (1990)), он разработал концепцию l’homme moyen (средний человек) для описания социальных характеристик населения в целом. 150 лет спустя, l’homme moyen появится в экономике в качестве репрезентативного агента.
Не один Муавр был очарован силами кривой нормального распределения. Для английского статистика Фрэнсиса Гальтона, закономерности нормальной кривой были гипнотического качества. Она: "... царит спокойно и в полном самоуничижение среди дикой растерянности. Огромнее толпы ... более совершенней ее влияние. Это высший закон безумия (law of Unreason). Всякий раз, когда вам в руки попадается большая выборка хаотических элементов ... неожиданная и самая красивая форма доказывает, что все они были связаны". [3]
Если бы греки знали о кривой, то скорее всего обожествляли бы ее, предположил Гальтон. Не то, чтобы все работы Гальтона были столь чисты и святы. Он высказался за использование данных о личностных характеристик для темных целей евгеники. В своей работе Наследственный гений, Гальтоном включена оценка доли людей, которые могут быть классифицированы как "выдающийся", основанная на их характеристиках - 1 из 4000.
Исследование Гальтоном наследственных характеристик человека пример возврата к среднему. Внешние характеристики человека - рост, вес, длина ресниц, неприятный запах изо рта - сводятся к некому среднему значению в течение долгого времени, по мере того как они передаются поколениями. Гальтон назвал это "наследственная регрессия к посредственности". Наследственная регрессия является основой для современной эконометрической регрессии.
Интересно, что до этого момента распределение Гаусса не имело имени. Несколько независимых упоминаний "нормального" распределения было отмечено примерно в одно и то же время в трех разных странах ((Peirce (1873), Galton (1877), Lexis (1877)). [4] Пирс обратил внимание на ровную кривую распределения ошибки измерений, допущенных при изучении резкого звука, генерируемого путем удара объекта о деревянную основу и назвал его "нормальным". К концу 19-го века, это имя окончательно укрепилось.
Семантический сдвиг был значительным. В середине 19 века слово «нормальный» приобрело современный смысл - "обычный". Затем оно быстро вошло в популярный лексикон. Статистическая нормальность стала частью этого этимологического пути. Нормальность стала вездесущей от простых азартных игр, до астрономии и социальных наук. В 18 веке нормальность была формализована. В 19-м веке социализирована. Нормальное распределение так назвали потому, что оно стало новой нормой.
Вплоть до конца 19 века, не было разработано никаких статистических тестов на нормальность. Оно стало символом веры и было неуместным вдаваться в вопросом его правильности. Как сказал Хокинг "благодаря синтезу суеверия, лени, двусмысленности, прострации из-за таблиц с огромным количеством цифр, мечте о социальном контроле, а также пропаганде утилитаристов, закон больших чисел стал априорной истиной". [5] Мы все сейчас дети Гаусса.
(С) Нормальность в экономических и финансовых системах
Примерно в это же время стали появляться первые отрасли экономки. Ранние модели экономической системы, разработанные экономистами классической школы были качественными и детерминированными. Такова была традиция ньютоновской физики объясняющей мир, используя классические детерминистские законы. Джевонс, Вальрас, Эджуорт и Парето "преобразовывали физику энергии в социальную механику полезности» (Mirowski (1989)).
Но в начале 20-го века, физика была в муках собственной интеллектуальной революции. Появление квантовой физики показало, что даже простые системы имеют непредвиденный случайный элемент. В физических системах, классический детерминизм неуклонно сменялся статистическими законами. Природным миром вдруг стала править случайность.
Экономика последовала в том же направлении, переходя от модели классического детерминизма к статистическим законам. Основания для такого сдвига заложили Евгений Слуцкий (1927) и Рагнар Фриш (1933). Они разделили динамику экономики на две части: нерегулярный случайный элемент или импульс и регулярный систематический элемент или механизма воспроизводства. Эта парадигма импульс / воспроизводство (impulse/propagation paradigm) остается основой макроэкономики и по сей день.
Аппарат Фриша-Слуцкого создал концептуальную систему, в рамках которой начали свое путешествие эмпирические макроэкономические модели. В 1932 году Alfred Cowles (http://cowles.econ.yale.edu/archive/people/directors/cowles.htm) создал Комиссию по исследованиям в области экономики (Cowles Commission for Research in Economics). К 1950 годам комиссия стала известна под именем Фонда Коулса (http://cowles.econ.yale.edu/), он являлся пионером в разработке крупных макро-эконометрических моделей, в том числе для анализа политики.
В основе макроэкономических моделей, разработанных фондом Коулса лежали две идеи: метод наименьших квадратов, для оценки механизма воспроизводства в экономике и нормальность случайных импульсов в системе. Обе они были близко связаны с Гауссом и Гальтоном. Эти два элемента, в принципе, независимы друг от друга - метод наименьших квадратов на самом деле не базируется на предположении о распределении ошибок. Но в последующие годы, эконометрические оценки и нормальность стали неразлучны.
В качестве доказательства этого, тесты на нормальность стали применяться в эконометрических моделях в 1970-х годах. Показательно, что эти тесты были использованы в качестве диагностической проверки адекватности модели. Обнаружение аномалий в ошибках, в экономике, как и в психиатрии, было принято считать изъяном модели, болезнью, требующей лечения. Как и в естественных науках в 19-м веке нормальность стала символом веры, являясь далеко не самым целесообразным статистическим предположением. Нормальность была социализирована.
Это направление мышления легко переместилось от экономики к финансам. Гарри Марковиц был членом Комиссии Коулса. В 1952 году он написал статью, которая заложила основы современной теории портфеля (Markowitz (1952)). Как и его современники и коллеги по комиссии, Марковиц предположил, что финансовые результаты (доходности) можно охарактеризовать только двумя параметрами средним и дисперсией - это удобно и согласуется с нормальностью. Это предположение имело решающее значение, ибо из него следует правило оптимального портфеля Марковица основанное на среднем и вариации.
Примерно в то же время, Кеннет Эрроу и Жерар Дебре (1954) создали первую подлинную экономическую модель общего равновесия. В этом мире Эрроу-Дебре, будущие состояния мира, как предполагалось, имеют свои познаваемые вероятности. Поведение агентов также предполагается известным. Это позволило модели Эрроу-Дебре явно определять цену риска, игнорируя при этом неопределенность. Рискованные (в терминологии Эрроу) ценные бумаги теперь могли быть оценены со статистической точностью. Эти ценные бумаги стали основной единицей современных моделей ценообразования активов.
С этого момента модели Марковица и Эрроу / Дебре, со встроенным предположения нормальности, доминировали ценообразование в экономике и финансах. В экономике, модель общего равновесия Дебре / Эрроу является интеллектуальной предшественницей современных моделей бизнес-цикла, которые являются основой макроэкономической теории последних 20 лет (например, Kiyotaki (2011)). Как правило, эти модели имеют гауссовское распределение импульсов движимых репрезентативными агентами в стиле Кетле.
В области финансов, доминирующие модели ценообразования построены на базе среднего / дисперсии Марковица и принципа количественного риска Эрроу-Дебре. Они тоже, как правило, опираются на нормальность. Например, широко известная модель Блэка-Шоулза (1973) для определения цены опциона была заимствована из статистической физики, где прочно укоренилась нормальность. Тоже касается используемых моделей кредитного риска, таких как Vasicek (2002). Случайно или преднамеренно, финансовые теоретики и практики все поголовно к концу 20-го века превратилась в полностью проплаченных членов секты Гаусса.
Оценка доказательств.
Теперь один ненормальный вопрос: до какой степени нормальное распределение является действительно хорошим статистическим описанием реального мира? В частности, насколько хорошо оно описывает поведение систем, будь то природные, социальные, экономические или финансовые? Доказательства против этого накапливаются на протяжении более 100 лет.
В 1870-х годах, немецкий статистик Вильгельм Лексис начал разрабатывать первые статистические тесты на нормальность. Поразительно но Лексис нашел, что единственной серией данных, которые точно соответствовали распределению Гаусса были данные по рождаемости. В 1929 году E B Wilson и M M Hilferty пересмотрели использование формальных статистических методов для данных используемых Пирсом (Wilson and Hilferty (1929)). Было установлено, что распределение исходных данных несовместимо с нормальной моделью.
Реальный мир вдруг стал чувствовать себя немного менее нормально. С тех пор становилось все больше свидетельств не совсем нормальности в различных реальных условиях. Вместо него, ученые часто обнаруживали поведение соответствующее альтернативному распределению, так называемому степенному закону распределения (power law distribution). Математически это выглядит так: P(X>x)~x^(-a) вероятность того, что случайная величина X превышает определенный уровень x пропорционально 1 / x^a. Другими словами,вероятность крупных событий убывает полиномиально их размерам. Это звучит достаточно безобидно.Но в мире Гаусса, вероятность крупных событий убывает экспоненциально с их размерами, что делает крупные события все более редкими все более быстрыми темпами.
При степенном распределении такие события являются намного более вероятными. Такое поведение в хвосте распределения делает степенной закон очень своеобразным. Жирные хвосты становятся обычным делом. Скорость распада хвоста определяется параметром a>0. Когда a падает, хвосты расширяются. И когда а принимает малое значение, многие концепции из мира Гаусса становятся с ног на голову. При нормальном распределении дисперсия и среднее вот и все что имеет значение. Для степенных законов с достаточно толстыми хвостами, среднего и дисперсии может даже не существовать. Технически, степенно распределенные данные имеют четко определенное среднее, когда а больше единицы, а дисперсия существует только при а большем двух.
В результате, центральная предельная теорема Лапласа не может применяться к степенному закону . Здесь не может быть «регрессии к среднему», так как среднее плохо определимо и дисперсия неограниченна. Поэтому средние и дисперсия могут рассказать нам гораздо меньше о нашем будущем с точки зрения статистики. Они больше не являются окнами в мир. С толстыми хвостами, будущее зависит от того, что статистики называют куртозис.
Чтобы стало немного понятнее рассмотрим статистические свойства множества природных, социальных и экономических систем, начиная с природных. Левая панель диаграмм 1-3 показывает плотности вероятностей солнечных вспышек, землетрясений и осадков. [6] Правая панель показывает преобразование этих данных. Оно очень удобно, так как позволяет сравнить данные с нормальной кривой, которая появляется в виде прямой линии. Таким образом, любое отклонение от прямой линии на окончаниях свидетельствует о ненормальных толстых хвостах. [7]
Все три графика явно демонстрируют жирный верхний хвост: случаи исключительно больших солнечных вспышек, землетрясений и осадков встречаются чаще, чем можно было бы предположить исходя из нормального распределения. В таблице 1 приведены статистические меры куртозиса. В норме, эта статистика будет равна 3. Для этих природных систем, куртозисы больше, а иногда гораздо больше, чем их нормальные аналоги.
Эти данные убедительно показывает, что законы физики могут генерировать очень ненормальное общесистемное поведение. Даже в системах без человеческого поведения, крупные неожиданные события - толстые хвосты - отличительная черта окружающего нас мира. Если предположить, что физический мир нормален, то мы можем значительно и очень широко недооценить риск природных катастроф.
Переход от физических систем к социальным свидетельствует, что толстые хвосты столь же сильны и там. Графики 4-6 представляют собой три социальных системы: частота, с которой разные слова появляются в романе Моби Дик, частота цитирований научных исследований, и численность населения городов США. [8] Хотя нам кажется, что между этими тремя наборами данных нет никакой взаимосвязи на самом деле это не так: каждый из них по-своему формируется под общим человеческим фактором - социальным взаимодействием.
Графически, ясно, что все эти три социальных системы имеют большой верхний хвост. В действительности все они подчинены степенному закону распределения. Например, для размера городов это распределение называется законом Ципфа (как впервые отметил Ауэрбах (1913)) (http://economix.blogs.nytimes.com/2010/04/20/a-tale-of-many-cities/ http://ru.wikipedia.org/wiki/%D0%97%D0%B0%D0%BA%D0%BE%D0%BD_%D0%A6%D0%B8%D0%BF%D1%84%D0%B0 http://arxiv.org/abs/cond-mat/0412004/). У него есть одно поразительное свойство: самый большой город в два раза больше второго по величине, в три раза больше третьего и так далее. Сравнительно аналогичная картина наблюдается и в распределении имен, богатства, слов, войн и продаж книг, и среди многих других вещей (Gabaix (2009)).
Куртозисы в таблице 1 показывают, что "толстохвостие" занимает значительное место как в человеческих, так и природных системах. Например, для землетрясений он около 3000 раз больше, чем для нормального распределения, для размера городов в 2000 раз больше. Как гибрид, мы можем ожидать, не нормальности в экономической и финансовой системе тоже. Чтобы оценить это взглянем на графики 7-10 где приведены данные о: ВВП, ценах на рис, банковском кредите и ценных бумагах. Они взяты из различных стран и на длительной дистанции - данные о кредите и ВВП в течение более чем столетия, цены на акции в течение более чем трех столетий, а цены на рис в течение тысячелетия. [9]
В каждой из этих четырех серий, есть визуальное свидетельство толстых хвостов. Статистические показатели куртозиса в таблице 1 подтверждают это. Хвосты кажутся толще в финансовых (equity returns и bank credit), чем макроэкономических сериях (ВВП). Но для обоих, жирность хвостов является значительной. Чтобы было понятнее попробуем рассмотрем последствия игнорирования этих хвостов в реальной жизни, для примера возьмем договор страхования предназначенный для защиты от катастроф в хвостах распределения результатов. В частности, предположим, что этот договор страхования производит выплаты только, если результаты более чем на четыре стандартных отклонения выше их среднего значения в течение одного года (или ниже для экономической серии). При нормальном распредеделнии, выплаты можно было бы ожидать очень редко. [10]
Теперь оценим справедливую сумму страховой премии по данному контракту. Она может быть рассчитана на основе двух взаимоисключающих предположений: во-первых, при условии нормального распределения результатов, а во-вторых при использовании наблюдаемых, широких хвостов. Разница между ними приведена в таблице 2. Эти различия огромны. Для экономических и финансовых серий, они, как правило, кратны 100 или даже больше. Предположение о нормальности приведет к массовому занижению цены страхования от катастрофических рисков на два порядка. Это неправильное ценообразование на экономические риски (падение производства), столь же опасно, как и стихийные бедствия (например, землетрясения).
Иными словами, рассмотрим подразумеваемые вероятности падения ВВП и цен на акции величиной в три стандартных отклонения. Предполагая нормальность, риск катастроф такого масштаба будет примерно один раз в 800 лет для ВВП и один раз в 64 года для акций. В действительности, по ВВП такие события происходят примерно раз в сто лет, а для акций каждые 8 лет.
Объясняя толстые хвосты.
Так как же объяснить эти злосчастные хвосты в естественных и социальных системах? Ключ ко всему - взаимодействия. Центральная предельная теорема основывается на предположении о независимости наблюдений. В сложных системах, природных и социальных, это предположение почти наверняка будет нарушено. Системы являются системами именно потому, что они являются взаимозависимыми. В двух словах, именно поэтому так мало систем ведут себя нормально в статистическом смысле. Это взаимодействие может принимать различные формы.
(А) Нелинейная динамика.
В качестве одного примера из физического мира рассмотрим погоду. Первые метеорологические службы были созданы в середине 19-го века, чтобы помочь прогнозировать экстремальные погодные явления, которые могут помешать торговли. Вплоть до конца 19-го века, эти офисы использовали изобарические графики в качестве основы для прогнозирования (Davis, 1984)). Физики часто смотрели на метеорологов со скептицизмом. Они были френологами науки под названием чтение изобарических ударов.
Все изменилось в начале 20-го века. В 1904 году Вильгельм Бьеркнес создан набор из семи уравнений с семью неизвестными отвечающими за эволюцию атмосферы. Это дало теоретическую основу для метеорологии. Система сама по себе была сложной, с нелинейностями, которые вытекали из взаимодействия между атмосферными конвекциями. Но если начальные условия были установлены правильно, она могла быть решена с помощью численных методов для получения детерминированных состояний будущей погоды. Как выяснилось позже это если, было очень большим если.
В 1963 году американский метеоролог Эдвард Лоренц занимался созданием прогнозов погоды на своем компьютере. Вернувшись после кофе-брейка, он обнаружил, что новый результат выглядел совершенно другим по сравнению с предыдущим. Он стал разбираться в чем дело и пришел к выводу, что всему виной крошечная ошибка округления в начальных условиях. Из этого он сделал вывод, что для нелинейных динамических систем, таких как погодные условия, существует сверхострая чувствительность к начальным условиям. Хаос родился (Gleick (1987)).
Лоренц сам использовал этот результат и сделал довольно мрачный вывод: прогноз погоды за горизонтом двух недель, по существу, ничего не стоит. И мрак скоро распространился. После вывода Лоренца, хаотическая динамика была обнаружена на всем протяжении естественного и человеческого мира, начиная от гравитационных сил и заканчивая ростом населения.
Эта хаотическая динамика имеет важные последствия для всей системы поведения. Небольшие изменения в системе могут привести к радикально другим результатам. Переломный момент (Tipping point) или, по словам Лоренца, эффект бабочки стал расползаться повсюду. В отличие от большей части экономики и финансов, равновесие часто является ни единственным, ни стабильным. Возврат к среднему дает очень ограниченное представление о будущем, часто потому, что самого фиксированного среднего может не быть. Жирные хвосты расползаются в каждом направлении.
Экономика и финансы далеко не чужды моделям нелинейной динамики. В 1980-х, они были использованы для изучения экономического цикла (Grandmont (1985)), оптимального роста (Day (1983)) и потребительского выбора (Benhabib and Day (1981))). Но развитие теории реального делового цикла, с ее линейными правилами принятия решений и репрезентативным агентом, заглушали эти работы в течение большей части последних двух декад.
За последние пять лет появилось много доказательств нелинейности в экономической и финансовой системе.Хаос, метафорический и математический, вышел на первый план. Нетрудно определить некоторые структурные особенности, которые, возможно, способствовали этой хаотической динамике. Плечо одно из них. Рост кредитного плеча был ключевой особенностью докризисного бума и последующего краха. Использование кредитного рычага генерирует широкую нелинейную реакцию всей системы на изменения в доходах и чистом богатстве (Thurner et al (2010)), подобно тому что обнаружил Лоренц.
(Б) Самоорганизующаяся критичность
В погодных системах, хаотическая динамика и переломные моменты описываются физическими законами управляющими системой. В других случаях, система автоматически организует себя в хрупкие состояния, постоянно что называется сидит на острие ножа. Такие системы называются системами самоорганизованной критичности (self-organised criticality) (Bak (1996)).
Классическим примером является куча песка. Представьте себе, построение кучи песка, по крупицам. Каждое зерно независимо и одинаково распределено, в стиле Лапласа. Но распределение этой системы не соответствует центральной предельной теореме. Вы добавляете песчинки и образуются мини-каскады. В какой-то момент эти лавины превышают последствия добавления дополнительных крупинок и куча осыпается. Куча песка достигла самоорганизующегося критического состояния.
Другой пример из мира природы это лесные пожары. Представьте себе участок земли, где в течение долгого времени случайно высаживались деревья, столь же случайно как и удары молний, которые могли бы привести к пожару. Когда начинался пожар, он распространялся на соседние деревья. Со временем, лес придет в критическое состояние, где, в большинстве случаев, пожаров мало и они ограничены по площади. Но в некоторых случаях, случайный удар молнии может вызвать катастрофический пожар уничтоживший весь лес. Затем система возобновит свою самоорганизацию обратно к критическому состоянию.
Самоорганизованная критичность была найдена и в человеческих системах тоже. Пример автомобильная трасса, трафик имеет тенденцию к конвергенции на критическую скорость, при которой риск затора или аварии значительно возрастают. Как и у песчаной кучи и лесных пожаров, динамика движения может иметь фазовый переход. Добавление одной дополнительной песчинки, одной целенаправленной молнии, одного превышения скорости автомобиля, может подтолкнуть систему из критического состояния в катастрофу на толстом хвосте.
Самоорганизованная критичность нашла себя и в некоторых темных уголках экономики и финансов. Bak, Chen, Scheinkman and Woodford (1993) разработали модель, в которой потрясения для отдельной фирмы независимы и одинаково распределены, как и отдельные песчинки. Но цепочки поставок между фирмами самостоятельно организуют колебания по всей экономике, как каскады в куче песка. В финансах, Бенуа Мандельброт (1963) обнаружил, что цены на акции демонстрируют поведение в соответствии с теорией самоорганизованной критичности. Бум в докризисные времена предоставляется еще одним примером самоорганизующейся критичности. Битва за доходности среди финансовых компаний заставляет их увеличивать для получения все больших результатов. Доходности в этой куче песка растут до запредельных величин, пока система приводит себя в состояние высоко риска. В этом критическом состоянии, еще одной небольшой порции риска - одной сабпрайм песчинки - было достаточно, чтобы привести всю гору, в неконтролируемый каскада (Haldane (2012a)).
(С) Предпочтения (Preferential Attachment)
Ни нелинейная динамика ни самоорганизующаяся критичность не полагаются на поведение человека или социальное взаимодействие. Введение человеческого поведения для усиления взаимодействия в рамках системы приведет к дальнейшему расширению хвостов. Социальные сети, в отличие от физических или биологических сетей, во многом определяются этими взаимодействиями. Без них сеть просто не существовала бы.
Социальные сети, будь то школьные классы, церкви, бары и World Wide Web, были тщательно изучены (Jackson (2010)). Как сети, они обладают некоторыми общими топологическими особенностями. Например, большинство из них имеют большое количество слабо связанных агентов и относительно небольшое число сильно связанных агентов. Почему так? Одним из объяснений является так называемое преференциальное связывание (preferential attachment).
Представьте себе сеть узлов, изначально связаных случайным образом. Теперь предположим, добавляется новый узел, связанный с существующими узлами с наибольшей степенью. Здесь и появляется преференциальное связывание (preferential attachment) Понять почему так происходит достаточно просто, по крайне мере на интуитивном уровне. Популярность заразна и самореализуется. В результате сеть будет характеризоваться высокой степенью связи для нескольких центральных узлов. Она будет распределена согласно степенному закону (Barabasi and Albert (1999)).
Нигде динамика формирования таких сетей не предстает столь наглядно как во всемирной паутине. Люди скорее всего подключатся к блогу или твитеру с большим количеством читателей, чем малым. Почему? Потому что популярность может быть сигналом качества - феномен Стивена Фрая. Или потому, что, даже если качество низкое, популярность может быть самореализующейся - феномен Ким Кардашян.
Та же динамика работает в большинстве, если не во всех, социальных и социально-экономических сетей. Преференциальное связывание объясняет распределение веб-ссылок, цитирования академических работ и друзей в Facebook (Barabasi and Albert (1999)). Оно объясняет и распределение размеров городов (закон Ципфа). И также объясняет результаты стратегических игр, как для взрослых (стратегического ядерного оружия) так и для детей (КНБ). Все что мы так хорошо знаем подчиняется степенному закону. Преференциальное связывание имеют свою историю и в экономике тоже.
Кейнс рассматривал процесс формирования ожиданий более восхитительным зрелищем, чем супер-компьютер (Keynes (1936)). Агенты формируют свои предпочтения не на объективной оценке качества (Стивен Фрай), но в соответствии с тем что они думают, что другие могли бы залайкать (Kim Kardashian). Стивен Фрай имеет чуть более 4 млн. последователей в Twitter. Ким Кардашян имеет 15 миллионов.
Такая овечья логика создает несколько равновесий, ожидания, как овцы расходятся по разным загонам. Некоторые из равновесий могут быть хуже других. Классическим примером в области финансов является модель банковской паники Diamond and Dybvig (1983). Если вкладчики буду думать, что другие владельцы депозитов собираются их снять, они сами побегут в банк. Финансовая непопулярность становится заразной. Люди вне очереди в Northern Rock в 2007 году вели себя также как люди читающие твиттер Ким Кардашян в 2012 году. В обоих случаях наблюдалось субоптимальное равновесие.
Такие координационные игры появляются в самых различных условиях. Связи могут быть как физические, эволюционные, финансовые, социальные. (Haldane (2012b)). Каждая приводит к нелинейной динамике системы, по причине эффектов бабочки и фазовых переходов при смене ожиданий. Финансовый кризис был пронизан примерами такого рода поведения, от банкротства Lehman Brothers до кризиса в еврозоне. В каждом случае, цепочки ожиданий создавали панику и страх плохого равновесия.
(Г) Высоко-оптимизированная толерантность (Highly-Optimised Tolerance)
Некоторые системы организуются в критическом состоянии сами по себе. Другие будут попадать туда не без помощи человека. Другими словами, в некоторых критичность может быть рукотворной. Они часто описываются как системы высоко оптимизированной толерантности (Carlson and Doyle (2002)). Рассмотрим модель лесных пожаров. Но теперь пусть у нас есть лесник, который отвечает за урожайность леса измеряемую по количеству посаженных деревьев. Лесник сталкивается с выбором.Более плотно засаженный лес даст большую урожайность.Но это также создает системный риск пожара, который может уничтожить большие площади и снизит урожайность деревьев в будущем. Как найти правильный баланс?
Оптимальный ответ лесника - создание противопожарных разрывов. Их должно быть больше в районах, где удары молнии случаются чаще. В районах, где они встречаются редко, лесник может позволить себе большую плотность. Такое расположение максимизирует ожидаемую доходность. Но это также приведет к появлению системных лесных пожаров. Более того, если лесник ошибется при подсчете вероятностей удара молнии, система может быть суб-оптимальна, т.е. подвержена катастрофическому разрушению. В любом случае, результатом будет "толстохвостие" распределения размера лесных пожаров.
Эти же самые вмешательства человека были особенностью финансового кризиса. До кризиса регуляторы устанавливали коэффициенты достаточности капитала на основе оценки рискованности активов банков. Эти оценки были несовершенны. Оглядываясь назад, мы понимаем, что активы, которые были недооценены с точки зрения риска (trading book assets, sovereign debt) стимулировали банки инвестировать в них. Финансовый сектор организовал себе критическое состояние, с высокой степенью риска причиной тому стало несовершенное регулирование из лучших побуждений.
Взятые вместе частички пазла создают общую картинку. Не трудно представить, экономическую и финансовую системы где есть некоторые, а возможно, и все, из этих особенностей - нелинейность, критичность, заразность (non-linearity, criticality, contagion). Это особенно важно в период кризиса. Там где присутствует взаимодействие, ненормальности всегда будут где-то рядом. В действительности наблюдаемая экономическая и финансовая интеграция лишь усиливает эти связи, тем самым создавая простор для хаоса и толстых хвостов, а потому мы можем предположить, что впереди нас ждут еще более веселые времена.
Что дальше?
Исходя из этого, что можно сделать, чтобы лучше распознавать ненормальности и управлять ими? Жирные хвосты содержат важные уроки для экономики и финансов. Они также содержат некоторые важные уроки для экономической и финансовой политики.
(А) Ненормальность в области экономики и финансов.
Как и Муавр в 18-ом веке и Гальтон в 19-м, экономисты на протяжении большей части 20-го века были заколдованны нормальностью. Теория реального делового цикла в экономике и теория эффективных рынков в сфере финансов являются явными признаки этого интеллектуального увлечения. То же касается большей части эконометрики. Все трое уходят своими корнями в модели Фриша / Слуцкого и Эрроу / Дебре, с нормальными импульсами действующими на линейные правила воспроизводства (распространения linear propagation rules). Ожидаемо, это порождает почти гауссовские результаты для макро-экономических показателей.
Но последние пять лет реальный мир ведет себя таким образом, что сделал их пустыми. Перед лицом потрясений, иногда весьма скромных, экономический и финансовый мир часто реагировал непредвиденными и "ненормальными" способами. Все это были переломные точки и фазовые переходы. Разрыв между теорией и реальностью был очевиден. Экономика и финансы, как и Sotheby`s, возможно, были одурачены случайностью.
Теперь для того,чтобы сделать шаг вперед, экономистам и финансистам может потребоваться шаг назад. В 1921 году Фрэнк Найт обратил внимание на важное различие между риском, с одной стороны и неопределенность с другой (Knight (1921)). Риск возникает тогда, когда статистическое распределение будущего может быть рассчитано или известно. Неопределенность возникает, когда это распределение не поддается исчислению, или быть может, неизвестно.
Многие из крупнейших интеллектуалов в экономике 20 века воспринимали это различие серьезно. В самом деле, они поместили неопределенность в центре внимания своих политических предписаний. Кейнс в 1930 годах, Хайек в 1950х, и Фридмана в 1960-х годах все подчеркивали роль неопределенности, в отличие от риска, когда дело касалось понимания экономических систем. Хайек критикует экономику в целом и экономическую политику, в частности, за то что они работают с "претензией знания" (Hayek (1974)).
Тем не менее, риск вместо неопределенности, доминировал последние 50 лет в экономической профессии. Предполагая, что будущее состояния мира были заранее известны благодаря нормальному распределению Эрроу и Дебре оценили риск со статистической точностью и проблема неопределенности была изящно решена.
Неопределенность была, в буквальном смысле, исключена из уравнения. Но если экономическая и финансовая системы работают на границе между порядком и беспорядком, игнорировать неопределенность просто нереально. Неопределенность глубоко влияет на способ поведения системы. Возьмите ценообразование активов. В условиях неопределенности, а не риска, цены на активы уже не определяются одной ценой. Вместо этого их равновесная цена определяется диапазоном (Epstein and Wang (1994)). Цены систематически отличаются от своих фундаментальных оценок. Если неопределенность растет, они испытывают фазовые сдвиги. Caballero and Krishnamurthy (2008) изучили последствия финансовой неопределенности для системного риска.
В ответ на кризис, сейчас наблюдается широкий интерес к моделированию экономических и финансовых систем, как сложных, адаптивных сетей. На протяжении многих лет работы основанные на агентно-ориентированном моделировании и сложные системы были небольшой частью экономики и финансов. Кризис дал этим моделям новую жизнь, помогая объяснить разрывы очевидные в последние годы (например, Kirman (2011), Haldane and May (2011)).
В этих рамках, многие из основных особенностей существующих моделей должны быть отвергнуты. Кетлевский средний человек заменяется взаимодействием нерепрезентативных агентов, в Twitter-стиле. Единственное, стационарное равновесие сменяется нестационарными равновесиями в стиле Лоренца. Линейность Фриша-Слуцкого сменяет система переломных моментов как в песочной куче. В экономике и финансах это поведение близко аналитическому правилу.
Впрочем, эти типы систем далеко не чужды для физиков, социологов, экологов и многих других. Их распространение в экономике позволит точнее предствать к каким последствиям в реальном мире приводят толстые хвосты в распределении. Это потребует довольно фундаментальное переосмысление основ современной экономики, финансов и эконометрики.
(Б) Ненормальность и управления рисками.
Инструменты управления рисками использующиеся финансовыми учреждениями, во многом, находятся еще на большем расстоянии от реальности, чем экономическая теория. В качестве примера этого, рассмотри модель Value-At-Risk (VaR) широко используемую банками для оценки и управления портфельными рисками.
VaR является статистической мерой риска разработанной JP Morgan в 1990 году. Этот показатель измеряет максимальный убыток по данному портфелю на определенном уровне доверия в течение определенного периода времени. Например, если у банка 10-дневный 99% VaR составляет $ 3 млн. человек, то считается что существует только 1% шанс, что потери превысят $ 3 млн в течение 10 дней. Таким образом VaR может быть использован для набора лимитов риска для портфелей трейдеров. Она также может быть использован для установки нормативов и стандартов капитала для этих портфелей. Простота VaR привела к его повсеместному использованию в области финансов (Jorion (2006)).
Но как мера риска VaR страдает роковым недостатком: он по сути ничего не говорит о рисках в хвосте за пределами доверительного интервала. Например, даже если 99% VaR трейдера составляет $ 10 миллионов, ничто не мешает ему сконструировать портфель, который обеспечивает 1% шанс убытков на $ 1 млрд. VaR закрывает глаза на этот риск и нормативные требования к капиталу оказываются серьезно занижены.
Но что еще хуже, так это недооценка толстых хвостов. Рассмотрим глобальный портфель акций, основанный на данных от 1693 до 2011 года, рассчитаем для него VaR. 99% VaR предполагая, что данные являются нормальными, дает потерю в 6 триллионов долларов по сегодняшним ценам.Использование фактических данных повышает его примерно на треть до $ 7,8 трлн.Наконец, расчет рисков, отвечающих за 1% хвоста распределения дает потерю в $ 18,4 трлн. Простой VaR недооценивает риск на коэффициент 1,5 и 3.
Этот пример является далеко не гипотетическим. Недостатки VaR были наглядно проиллюстрированы в период кризиса. Можно утверждать, что эти кризисные уроки были выучены. Но это далеко не так. В мае этого года, Risk magazine опросил риск-менеджеров необходимо ли отменить VaR. Большинство ответило нет. И как мера риска хвоста, VaR продолжает удивлять не в лучшую сторону.
10 мая, JP Morgan объявил потери на общую сумму в 2 миллиарда долларов на портфель корпоративных кредитных рисков. Мир, и руководство JP Morgan, были застигнуты врасплох. В конце концов, до объявления этой новости 95% VaR на этот портфель в первом квартале 2012 года было всего лишь $ 67 миллионов. Это VaR мера была пересмотрена в сторону повышения до $ 129 млн. в день объявления. Является ли это доказательством более точной оценки потерь на хвосте, или же их по-прежнему не было видно.
Эти оценки активов и проблемы управления рисками не начинаются и не заканчиваются VaR. Многие финансовые инструменты имеют графики выигрышей как у опционов. С начала 1970-х годов, эти риски, как правило, оценивались с использованием формулы Блэка-Шоуэлза. Но эта модель предполагает нормальность доходностей. Если доходности подчиняются степенному закону, то Блэк-Шоуэлз - если принимать его за чистую монету - может привести к неправильной оценке риска.
Одним из примеров этого является проблема в области финансов известная как "улыбка волатильности". Подразумеваемые волатильности (volatilities implied) в формуле Блэка-Шоулза обычно выглядят как "улыбка". Иными словами, подразумеваемая волатильность больше, на концах - например, для опционов глубоко вне денег. Одно из объяснений загадки в том, что исходное распределение доходности является "толстохвостым". Это повышает стоимость опционов глубоко вне денег по отношению к формуле Блэка-Шоулза и остальных подразумеваемых волатильностях.
Представьте себе ценообразование опциона на рис на основе данных за последние 1000 лет. Предположим, что сегодняшняя цена годового опциона составляет $ 100, страйк глубоко вне денег и в трех стандартных отклонениях выше среднего. Предполагая нормальное распределение на изменение цен, этот опцион будет стоить один цент. Если использовать фактическое распределение цены на рис то его справедливая стоимость будет 37 центов. Нормальность встроенная в формулу Блэка-Шоулза будет генерировать огромное неправильное ценообразование риска катастроф.
Переходя от рыночных к кредитным рискам рассмотрим модель Vasicek (1991). В базовой версии оценивается корреляция каждого актива в портфеле банка с общим фактором риска. Модель Vasicek лежит в основе многих крупных банков в рамках управления рисками. Например, она обычно используется, чтобы определить их потребности в капитале в соответствии с внутренним рейтингом на основе Базельской моделиinternal ratings-based (IRB) Basel framework (BCBS (2005). Но в формировании распределения ожидаемых потерь портфеля, стандартные приложения модели Vasicek предполагают, что основные факторы риска, и, следовательно, потери портфеля, распределены нормально.
Предположим, что общим фактором в модели Vasicek является рост ВВП, и считается, что он нормально распределен. Согласно подходу IRB Базеля II, и предполагая, результаты в хвосте с вероятностью 0,1% для общего фактора, буфер капитала в базовом сценарии для покрытия непредвиденных потерь составит около 3%. [11]
Теперь спросите, что произойдет, если использовать реальные данные распределения ВВП на протяжении последних трех веков. при базовом подходе, необходимый буферный капитал вырастает в четыре раза примерно до 12%. Tarashev and Zhu (2008) провести формальное изучение степени неправильного ценообразования кредитного риска в соответствии с моделью Vasicek. Они считают, что требования к капиталу могут быть от 20% до 85% выше, если предполагать толстые хвосты.
Другой популярный эмпирический подход к моделированию кредитного риска, в частности, соотношения между активами в структурированных кредитных продуктах, это так называемый копула метод (Noss (2010)) (http://en.wikipedia.org/wiki/Copula_(probability_theory)). Копула описывает взаимозависимости между стоимостью активов и, как правило, предполагается, нормальной. Если совместное распределение между активами на самом деле имеет широкие хвосты, копула будет систематически неправильно оценивать риск структурированных кредитных инструментов. Так было во время кризиса, и небольшие различия в корреляции привели к драматическим изменениям в цене.
Все эти примеры ненормальности указывают на необходимость переосмысления фундаментальных инструментов управления рисками используемых в настоящее время многими финансовыми компаниями. Это включает в себя, что немаловажно, модели, используемые для установки нормативных требований к капиталу. Даже после кризиса, слишком многие из этих моделей остаются обманутыми нормальностью и одураченными случайностью. Кключевая ошибка приведшая к кризису по прежнему остается в строю и по сей день.
(С) Ненормальность и системный риск.
Некоторые из рисков хвоста, стоящие перед финансовыми фирмами действительно трудно точно откалибровать. Это потому, что они создаются эндогенно в системе в результате поведения других участников (Danielsson et al (2009)). Потому что, их поведение ненаблюдаемо, тоже касается рисков, стоящих перед отдельными банками. Это потенциально серьезный пробел управления рисками.
Этот разрыв наиболее очевидно может заполнить некоторые системные службы по надзору, способные контролировать и, возможно моделировать движущиеся части финансовой системы. В докризисные времена было мало, если вообще было, таких системных регулирующих органов. Но за последние несколько лет появилось несколько подобных учреждений - the Financial System Oversight Council (FSOC) в США, the European Systemic Risk Board (ESRB) в Европе и the Financial Policy Committee (FPC) в СК - то есть как минимум три. Одним из положительных эффектов создания таких органов может быть карта системного риска.
Эта карта может служить основой для планирования управления рисками отдельных финансовых компаний.Как и в прогнозировании погоды, регулятор системных рисков может обеспечить раннее предупреждение рисков чтобы принять необходимые оборонительные меры. Действительно, эволюция прогноза погоды может дать полезные уроки для финансов - и некоторые основания для оптимизма.
После Второй мировой войны, метеорологи были одними из первых апологетов вычислительной техники. Вычислительные мощности компьютеров, безусловно, были ключом к достижениям в области прогнозирования погоды. Основной причиной для пессимизма Лоренца о прогнозировании была проблема сбора и обработки данных. Современные компьютеры значительно расширили эти ограничения. Компьютер Метеобюро Великобритании может обрабатывать 10^11 вычислений в секунду, и использует сотни тысяч глобальных наблюдений каждый день.
Результаты были поразительны. Ошибки в прогнозировании погоды демонстрируют многолетний спад. Сегодня четырехдневный прогноз столь же точен, как однодневный прогноз 30 лет назад. Прогнозы имеют прогностическое значение далеко за пределами двухнедельного горизонта. В самом деле, предсказания климатических моделей в настоящее время оформляются в горизонте 100 лет. [12] Пессимизм Лоренца был неуместен. Финансы могли бы следовать этим шагам.
Сегодня уже предпринимаются международные шаги по расширению и углублению финансовых данных, которые могли бы использовать системные регуляторы для того, чтобы закрыть этот пробелы на глобальной карте. Как и в прогнозировании погоды, это будет способствовать улучшению оценки начальных условий финансовой системы. И как в прогнозировании погоды, важно, что эти данные записываются в общий финансовый язык подлинно глобальной карты (Ali, Haldane and Nahai-Williamson (2012)).
Эти данные затем должны быть объединены с помощью набора моделей поведения в экономической и финансовой системе. Экономика не имеет преимущества метеорологов - четко определенных физических законов. Но, объединив эмпирически мотивированные поведенческие правила большого пальца, и балансы ограничений, мы можем начать строительство молодой модели системного риска. [13]
В Банке Англии, работы над такой моделью велись задолго до кризиса. The Risk Assessment Model for Systemic Institutions (RAMSI) сочетает в себе макро-экономические и финансовые данные, позволяющие проводить моделирование и стресс-тесты финансовой системы Великобритании (Aikman et al (2009)). Она генерирует системные риск-метрики и распределения, которые можно использовать для предупреждения о надвигающихся угрозах. Показательно, что распределения результатов в финансовой системе имеют, как правило, очень не-нормальные, толстые хвосты.
Определение контуров системного риска, это одно. Перепрофилирование этих контуров это совсем другое. Международные регуляторы только недавно приступили к выполнению задачи калибровки нормативных правил по риску с прицелом на систему, в отличие от отдельных учреждений. Еще предстоит много работы. Нормативные правила прошлого стремились отразить риск. Нормативным правилам будущего необходимо искать для отражения неопределенности.
Это требует совершенно иного, а иногда казалось бы, порочного подхода. В условиях неопределенности, многие наши интуитивные нормативные правила большого пальца становятся с ног на голову: медленное может быть быстрее, меньше может быть больше, легкое может быть тяжелым. Инстинктивно комплексной финансовой системе, как кажется, потребуются сложные правила управления. И в условиях риска это верно. Но при неопределенности, однако, это не совсем так. Тогда оптимальные правила контроля, как правило, просты (DeMiguel et al (2009)). Меньше значит больше (Gigerenzer and Brighton (2008)).
Причина того, что меньше может быть больше в том, что сложные правила, менее устойчивы к ошибкам в спецификации. Они по сути своей хрупки. Модель Гарри Марковица оптимального портфеля способствовала миллионам инвестиционных решений на протяжении последних 50 лет - но, что интересно, не его собственным. На пенсии Марковиц на самом деле использовал гораздо более простой одинаково взвешенный подход. Это, как Марковиц считал, был более надежный способ навигации по толстым хвостам неопределенности инвестиций (Benartzi и Thaler (2001)).
Регуляторы начинают учить некоторые из этих уроков. Основой регулирования в течение последних 30 лет была более сложная оценка соотношения капитала банков. Они склонны к проблемам высоко оптимизированный толерантности. Поэтому в будущем регуляторы будут требовать от банков выполнять гораздо более простые меры по левериджу. Как пенсионный портфель Марковица, с равными весами активов в портфеле банка. Как и этот портфель надеемся они будут более устойчивы перед толстыми хвостами.
Второй тип простых, но надежных, регулирующих правил это создание гарантий для самых худших сценариев. Технически, это идет под названием «минимаксной» стратегии (Hansen and Sargent (2011)).
Просеки созданные в некоторые физических системах могут сыграть именно эту роль. Они обеспечивают ограниченность риска критических состояний, возникающих в сложных системах, как в самоорганизации, или из-за искусственного вмешательства. Эти противопожарные просеки начинают находить свое отражение в языке и практики регулирования. Правило Волкера в США и Викеровские предложения в Великобритании очень в этом духе. Конструктивные решения разделения по-прежнему вызывают смесь скептицизма и ужаса у многих регуляторов и риск менеджеров. Конечно, на первый взгляд они кажутся довольно грубыми в сравнении с устройством управления рисками.
Под неопределенностью, однако, это то что нужно. В сложных, неопределенных условиях, только такие просеки способны защитить от системного коллапса действуя на структуру системы в целом, а не поведение каждого в ней. В предотвращении лавинной опасности, не имеет смысла устанавливать ограничения на размер и форму каждой песчинки. Гораздо разумнее оценить структуру и форму всей кучи песка в целом.
Наконец, в нестабильном мире, точная настройка мер политики может иногда стоить потенциально очень много. Сложные правила вмешательства могут просто добавить свою лепту к существующей неопределенности в системе. Это во многом старый урок Хайека о претензии на знание, в сочетании со старым урок Фридмана об избежании вреда от политики. Это все имеет отношение к нормативно-правовой среде, которая появилась в течение последних нескольких лет.
И аргументы позволяют сделать еще один шаг вперед. Попытки тонкой настройки управления рисками могут добавить к вероятности катастроф толстых хвостов. Ограничения небольших неровностей на дороге может сделать систему, в частности, социальную систему, более склонной к системному краху. Почему? Потому что, вместо того, чтобы выпускать пар в малых всплесках давлениях, регуляторы будут накапливать давление под поверхностью, и в конце концов приведут к извержению вулкана. Taleb and Blyth (2011) использовали такой подход, чтобы объяснить события до и после арабской весны.
Заключение
Нормальность была общепринятым стандартом в экономике и финансах более 100 лет. Тем не менее, в реальных системах, ничто не может быть менее нормальным, чем нормальность. Хвост не должен быть неожиданным, так как они являются правилом. Поскольку мир становится все более интегрированной - в финансовом, экономическом, социальном плане - взаимодействие между движущимися частями может еще расширить толстые хвосты. Катастрофичный риск может быть на подъеме.
Если государственная политика относится к экономической и финансовой системе, как к лотерее - случайная и нормальная - то государственная политика рискует сама стать лотереей. Предотвращение катастрофы требует, чтобы мы лучше понимали и строили контуры системного риска, толстые хвосты и все прочее. Это также означает внедрение надежных защитных механизмов, чтобы остановить хаос от новых песчинок в нашей гигантской куче песка или огромном лесу. До тех пор, нормальная работа вряд ли возможна.
СНОСКИ
[1]Bernstein (1998).
[2]Bernstein (1998).
[3]Bernstein (1998).
[4]Stigler (1999).
[5]Hacking (1990).
[6]The Data Annex provides a definition of these series.
[7]More precisely, it signals a fat tail if the observed distribution lies to the left of the straight line at the bottom of the chart and to the
right of the straight line at the top of the chart. This means that extreme events have a larger probability than that suggested by the
normal distribution.
[8]The data source is Newman (2005).
[9]The Data Annex provides a definition of these series.
[10]Around once every 31,000 years
[11]Assuming loss given default of 45%, probability of default of 1% and asset correlation of 10%.
[12]For example, see the Fourth Assessment Report of the Intergovernmental Panel on Climate Change (IPCC, 2007).
[13]A recent example would be the calibrated, agent-based model of Geanakoplos et al (2012).
ССЫЛКИ НА РАБОТЫ
Aikman, D, Alessandri, P, Eklund, B, Gai, P, Kapadia, S, Martin, E, Mora, N, Sterne, G, Willison, M
(2009), “Funding liquidity risk in a quantitative model of systemic stability”, Bank of England Working Paper
No. 372.
Ali, R D, Haldane, A G and Nahai-Williamson, P (2012), “Towards a common financial language”,
available at http://www.bankofengland.co.uk/publications/Documents/speeches/2012/speech552.pdf.
Auerbach, F (1913), “Das Gesetz der Bevölkerungskonzentration”, Petermanns Geogr. Mitt. 59,74–76.
Arrow, K J and Debreu, G (1954), “Existence of an Equilibrium for a Competitive Economy”, Econometrica,
Vol. 22, No. 3, pp. 265-290.
Bak, P, Chen, K, Scheinkman, J and Woodford, M (1993), “Aggregate fluctuations from independent
sectoral shocks: self-organized criticality in a model of production and inventory dynamics”, Ricerche
Economiche.
Bak, P (1996), “How nature works: the science of self-organized criticality”, Copernicus.
Barabasi, A L and Albert, R (1999), “Emergence of scaling in random networks”, Science, 286(5439), pp.
509-12.
Basel Committee on Banking Supervision (2005), “An Explanatory Note on the Basel II IRB Risk Weight
Functions”, Bank for International Settlements.
Benartzi, S and Thaler, R (2001), “Naïve diversification strategies in defined contribution saving plans”,
American Economic Review, Vol 91, 1, pp.79-98.
Benhabib, J and Day, R H (1981), “Rational Choice and Erratic Behaviour”, Review of Economic Studies 48 (3), pp. 459-471.
Bernstein, P (1998), “Against the Gods: the remarkable story of risk”, John Wiley & Sons.
Black, F and Scholes, M (1973), “The Pricing of Options and Corporate Liabilities”, Journal of Political
Economy, Vol 81 (3), pp. 637-654.
Caballero, R J and Krishnamurthy, A (2008), “Collective Risk Management in a Flight to Quality Episode”,
The Journal of Finance, vol 63 (5), pp. 2195-2230.
Carlson, J M and Doyle, J (2002), “Complexity and robustness”, PNAS 99(1), pp. 2538-45.
Cochrane, J H (2001), “Asset Pricing”, Princeton University Press.
Danielsson, J, Shin, H S and Zigrand, J-P (2009), “Risk Appetite and Endogenous Risk”, available at
http://papers.ssrn.com/sol3/papers.cfm?abstract_id=1360866.
Davis, J L (1984), “Weather Forecasting and the Development of Meteorological Theory at the Paris
Observatory, 1853-1878”, Annals of Science, 41(4) pp.359-382.
Day, R H (1983), “The Emergence of Chaos from Classical Economic Growth”, Quarterly Journal of
Economics, 98, pp. 201-213.
DeMiguel, V, Garlappi, L and Uppal, R (2009), "Optimal Versus Naive Diversification: How Inefficient is the 1/N Portfolio Strategy?", The Review of Financial Studies, 22(5), pp. 1915-1953.
Diamond, D W and Dybvig, P H (1983), “Bank runs, deposit insurance, and liquidity”, Journal of Political
Economy 91(3), pp. 401–19.
Epstein, L G and Wang, T (1994), “Intertemporal asset pricing under Knightian uncertainty”, Econometrica,
62(3), pp. 283-322.
Frisch, R (1933), “Propagation Problems and Impulse Problems in Dynamic Economics”, in Economic
Essays in Honour of Gustav Cassel. Eds.: London: Allen and Unwin, pp.171-205.
Gabaix, X (2009), “Power laws in economics and finance”, Annual Review of Economics, 1 pp. 255-93.
Galton, F (1877), “Typical laws of heredity”, Nature,15, pp. 492-553.
Geanakoplos, J, Axtell, R, Farmer, D J, Howitt, P, Conlee, B, Goldstein, J, Hendrey, M, Palmer, N M,
Yang, C-Y (2012), “Getting at systemic risk via an agent-based model of the housing market”, American
Economic Review, 102(3): 53–58, May.
Gigerenzer, G and Brighton, H (2008), "Homo Heuristicus: Why Biased Minds Make Better Inferences",
Topics in Cognitive Science (1), pp. 107-143.
Gleick, J (1987), “Chaos: Making a New Science”, Viking.
Grandmont (1985), “On Endogenous Competitive Business Cycles”, Econometrica, 53, pp. 995-1045.
Hacking, I (1990), “The Taming of Chance”, Cambridge University Press.
Haldane, A G (2012a), “On counterparty risk”, available at
http://www.bankofengland.co.uk/publications/Documents/speeches/2012/speech571.pdf.
Haldane, A G (2012b), “Financial arms races”, available at
http://www.bankofengland.co.uk/publications/Documents/speeches/2012/speech565.pdf.
Haldane, A G and May, R M (2011), “Systemic risk in banking ecosystems”, Nature (469), 351-355.
Hall, R E (1978), “Stochastic implications of the life cycle-permanent income hypothesis”, Journal of Political
Economy 86 (6), pp. 971-87.
Hansen, L P and Sargent, T (2011), “Wanting robustness in macroeconomics”, in Friedman, B. M. and
Woodford, M. (eds) Handbook of Monetary Economics, Vol 3B, North-Holland.
Hayashi, F (2000), “Econometrics”, Princeton University Press.
Hayek, F A (1974), "The Pretence of Knowledge", Nobel Memorial Prize Lecture.
IPCC (2007), “Climate Change 2007: Synthesis Report”, Intergovernmental Panel on Climate Change.
Jackson, M O (2010), “Social and economic networks”, Princeton.
Jorion, P (2006), “Value at Risk: The New Benchmark for Managing Financial Risk”,
3rd Edition, McGraw-Hill.
Keynes, J M (1936), “General theory of employment, interest and money”, Macmillan Cambridge University
Press.
Kirman, A (2011), “Complex Economics: Individual and collective rationality”, New York: Routledge.
Kiyotaki, N (2011), “A perspective on modern business cycle theory”, Federal Reserve Bank of Richmond
Economic Quarterly, 97(3), pp. 195-208.
Knight, F H (1921), “Risk, Uncertainty and Profit”, Houghton Mifflin Company, Boston.
Lexis, W (1877), Theorie der Massenerscheinungen in der menschlichen Gesellschaft.
Mandelbrot, B (1963), “The variation of certain speculative prices”, Journal of Business, XXXVI, pp. 394-
419.
Markowitz, H M (1952), "Portfolio Selection." Journal of Finance, 7 (1), pp. 77-91.
Mirowski, P (1989), “The Probabilistic Counter-Revolution, or How Stochastic Concepts came to
NeoclassicalEconomic Theory”, Oxford Economic Papers, 41(1), pp. 217-235.
Newman, M E J (2005), “Power laws, Pareto distributions and Zipf’s law”, Contemporary Physics, 46 (5), pp.323-51.
Noss, J (2010), “Extracting information from structured credit markets”, Bank of England Working Paper
Series No. 407.
Peirce, C S (1873), “Theory of Errors of Observations”, Report of the Superintendent US Coast Survey,
Washington, Government Printing Office, Appendix no. 21, pp. 200-224.
Schularick, M and Taylor, A M (2009), “Credit Booms Gone Bust: Monetary Policy, Leverage Cycles and
Financial Crises, 1970-2008”, NBER Working Paper Series 15512.
Slutsky, E (1927), “The Summation of Random Causes as the Source of Cyclical Processes”, Econometrica
(5), 105-146.
Stigler, S (1999), ‘Statistics on the Table: the History of Statistical Concepts and Methods’, Harvard
university press.
Taleb, N N (2001), “Fooled by Randomness: The Hidden Role of Chance in Life and in the Markets, Random House & Penguin.
Taleb, N N and Blyth, M (2011), “The Black Swan of Cairo: How suppressing Volatility Makes the World
Less Predictable and More Dangerous”, Foreign Affairs 90 (3), 33-39.
Tarashev, N and Zhu, H (2008), “Specification and Calibration Errors in Measures of Portfolio Credit Risk:
The Case of the ASRF Model,” International Journal of Central Banking (4), 129–174.
Thurner, S, Farmer, D. J., Geanakoplos, J. (2010), “Leverage causes fat tails and clustered volatility”,
Cowles Foundation Discussion Paper No 1745R.
Wilson, E B and Hilferty, M M (1929), “Note on C.S. Peirce’s Experimental Discussion of the Law of
Errors”, Proceedings of the National Academy of Sciences of the United States of America, 15(2), pp. 120-
125.
Vasicek, O (1991), “Limiting loan loss probability distribution”, KMV Working Paper.
Vasicek, O (2002), “Loan portfolio value”, RISK, December 2002, pp. 160-162.
Комментариев нет:
Отправить комментарий