A robotok hatása a piacokra

Nem túlzás kijelenteni: ahogy csitul a derivatívákkal kapcsolatos, a válság okozta félelem, úgy forr egyre inkább a levegő az algoritmusok körül.

A Credit Suisse-nek súlyos büntetést kellett kifi zetnie a New York-i tőzsdének, mivel „nem szabályozta kellőképpen” a prop trading deskjének az automatizált tevékenységét. A Deutsche Bankot majdnem kitiltották az oszakai tőzsdéről a robotkereskedők ámokfutása után. A 2010. május 6-ai „flash crash” – bár még mindig nem tisztázott minden részlete – szintén a chicagói tőzsdén működő, egyik algoritmus „műve” volt.

A SEC és a CFTC a ránehezedő, egyre nagyobb politikai nyomás alatt (ne feledjük, a hamarosan tömegesen nyugdíjba vonuló, amerikai baby boom generáció megtakarításainak jelentős része tőzsdén kereskedett pénzügyi eszközökben van) az algoritmikus kereskedés szabályozásának kidolgozását sürgeti – noha egyáltalán nem világos, hogy érdemes-e, és ha igen, akkor mit érdemes szabályozni. Az IOSCO (az értékpapír-felügyeletek nemzetközi szervezete) mindenesetre gőzerővel dolgozik egyfajta ajánlásrendszer kidolgozásán, amelynek a szabályai növelnék a dark poolok (ATS-ek) transzparenciáját, és csökkentenék piactorzító hatásaikat, például a dark poolok jelentési kötelezettségeinek  kiszélesítésével. Borítékolható azonban, hogy a forgalom megtartásának érdekében kellő mennyiségű kiskapu marad a szabályrendszerben.

Mi a gond az algoritmus kereskedéssel?

Az algoritmusokkal két alapvető, egymásba fonódó probléma van. Az első, hogy ami mikroszinten előnyös egy piaci szereplőnek (villámgyors végrehajtás, nem látható, folyamatos jelenlét az árjegyzésben), az makroszinten destabilizáló hatású. A megbízások láthatatlan jelenléte vagy túl gyors megjelenése-eltűnése lehetetlenné teszi a valódi likviditás felmérését, vagy úgy is mondhatnánk, hogy soha sincs valódi likviditás a piacon (csak látszólagos).
A második probléma az automatizáltság. Bár divatos az algoritmusok „intelligens” voltáról beszélni, alapvetően teljesen mechanikus, vak, egy adott feltételre aktiválódó „robotpilótákról” van szó. Mivel az algoritmusok külső inputja kizárólag az ár és a forgalom (vagy még rosszabb, a volatilitás), az algoritmusok egymást is könnyen aktiválhatják, olyan megbízási/teljesülési spirált váltva ki, amelynek csak akkor van vége, ha az emberi operátorok leállítják őket. Addigra viszont annyi stop-loss megbízás, barrierszint-túllépés és kényszerlikvidálás következik be, hogy annak hosszú távú piaci és reálgazdasági hatásai lehetnek. (Gondoljunk a „flash crash”-re: a volatilitás 9%-os megugrása befektetők, kereskedők és bankok tömegénél váltott ki kényszerű pozíciózárást, beleértve a nyugdíj-megtakarításokat kezelő alapokat és magánszemélyeket is!)

Lássunk egy elméleti példát egy ilyen aktiválódási spirálra!

Egy fontos eszközben, kevéssé likvid kereskedési időszakban arbitrázslehetőséget  váró orderek gyűlnek fel az elektronikus kereskedési platformokon (arbitrázsalgoritmusok). Ezeket a megbízásokat egy másik algoritmus, amelyet ebben a pillanatban kapcsoltak be egy nagy tranzakció teljesítésére, valódi likviditásként érzékeli (likviditásalapú algoritmus). Mivel kezelője az „agresszív” gombot állította be, az algoritmus azonnal lecsap a lehetőségre, és elárasztja a piacokat eladási megbízásokkal. Mivel azonban itt nincs szó arbitrázslehetőségről, az arbitrázsalgoritmusok visszavonják ordereiket, a piac mélysége a töredékére zuhan, a likviditásalapú algoritmus azonnal és drasztikusan letöri az árfolyamot. A kritikus szintek áttörése és a momentum megugrása aktiválja a modellalgoritmusokat, amelyek az új irány – a lefelé – felé vesznek fel friss pozíciókat. A stop-loss megbízásokra vadászó high frequency algoritmusok sorra ütik át a védett szinteket, az árfolyam tovább zuhan. A spreadeket és korrelációkat követő algoritmusok is aktiválódnak, ugyanilyen hullámokat indítva el a többi eszközben és más piacokon is (a részvény–deviza–nyersanyag–futures–részvény útvonal bármelyikén). Az emberi kereskedők végül észbe kapnak, és diszkontáron belevesznek az esésbe (ha fundamentálisan megalapozatlannak találják a mozgást), de ez már nem segít azokon, akiknek teljesültek prudens stop-loss vagy barrier megbízásaik, vagy akiken brókerük kényszerlikvidálást hajtott végre.

Az algoritmikus kereskedés pártján állók két hagyományos érve:
1) az algoritmusok megbízásai és különösen a high frequency rendszerek pótlólagos likviditást visznek a piacra, növelve annak mélységét;
2) az ultragyors kereskedés megszünteti a piaci tökéletlenségeket.

Mindkét érv megtévesztő és irreleváns. Kevésbé ismert, de a „flash crash” napján valóban rekordot ért el a tőzsdei forgalom – csak éppen az egy árfolyamsávra jutó likviditás volt rendkívül alacsony (illékony). Ami a második érvet illeti: valóban elképzelhető, hogy az arbitrázslehetőségek fokozatosan eltűnnek a legnagyobb piacokról, ám ez valószínűleg csak annyit jelent, hogy az algoritmusfejlesztők figyelme a még kevésbé likvid, a fő eszközökkel még kevésbé korreláló piacok felé fordul (egzotikus devizák, komplex derivatívák, nyersanyag futuresök, ETF-ek kapcsolódásai pl. a devizapiacokkal).
A „flash crash” után a fejlett tőzsdék és az ECN-ek is olyan mechanizmusokat (circuitbreakers) léptettek érvénybe, amelyek elvileg  megakadályozzák az irracionális mértékű áringadozásokat – például 10% esés után automatikus felfüggesztik a megbízások végrehajtását – , de ez messze nem oldja meg a problémt, ami tulajdonképpen a kontroll és az átláthatóság egyidejű elvesztése.

Mit tehet a szabályozásoldali döntéshozó azon túl, hogy felkészül egy potenciálisan kiszámíthatatlanabb, időnként szélsőségesen volatilis, „vadnyugati” jellegű időszakra? A technológiai fejlődést nyilván nem lehet visszacsinálni, ráadásul a szabályozás lehetőségeit korlátozza
a kereskedési helyek globális versenye. Utóbbira jó példa a devizapiaci tőkeáttétel – hosszú évek vitáit követő – korlátozása az Egyesült Államokban (2010). A korábban akár 1:400-as tőkeáttételt 1:50-ben maximalizálták, aminek lényegében annyi lett a következménye,
hogy az ügyfelek többsége az egyes szolgáltató bankok londoni platformjára tért át. A szabályozás nehézsége azonban nem jelenti azt, hogy annak nincsen értelme. Ha az algoritmusok által elveszített kontroll nem is szerezhető vissza, az átláthatóság területén nagyon határozott – sokkal határozottabb – fellépésre lenne szükség. Ami a szereplőknek mikroszinten hasznos (láthatatlan jelenlét, villámgyors teljesülés), az makroszinten destabilizáló hatású. Az alapvetően mégiscsak a bizalomra épülő piacok számára már önmagában az is előrelépés lenne, ha a piaci szereplők – valós időben – tisztában lennének az algoritmikusok jelenlétének mértékével az árképzésben.

Forrás: TATÁR MIHÁLY ERIK: Algoritmikus kereskedés:iparági trend vagy a piac buborékká válása?

Vélemény, hozzászólás?

Az e-mail címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük