Digital

Digital

Nieuws

Omvang wereldwijd dataverkeer is een risico op zich

Mensen en machines pompen enorme hoeveelheden data door de wereldwijde digitale infrastructuur. Daardoor is deze zo groot en complex geworden dat mensen het niet meer kunnen bevatten of controleren. Dat zijn dé ingrediënten voor een ‘data meltdown’ bij overheden, banken en grote bedrijven. Want al die instellingen vertrouwen blindelings op hun computersystemen.
Dat concludeert Neil MacDonald van technologie-onderzoeksbureau Gartner (volgens De Volkskrant).

Een aantal voorbeelden: de schermen van de Amerikaanse beurs Nasdaq bleven onlangs drie uur lang op zwart door een communicatiefout tussen het handelsplatform van Nasdaq zelf en (waarschijnlijk) dat van de New York Stock Exchange op Wall Street. Eerder al hadden bedrijven als Google, Amazon, Apple en Microsoft te maken met storingen die niet onopgemerkt bleven.

De Britse krant The Guardian wijdde een artikel aan deze verschijnselen. Daarin spraken deskundigen hun bezorgdheid en boosheid uit. Want het is, zo was de teneur van het artikel, vooral winstbejag waardoor bedrijven proberen zoveel mogelijk te automatiseren. Daarbij verliezen ze de menselijke maat uit het oog.

Voorbeeld hiervan is de elektronische handel in bijvoorbeeld aandelen, waarbij een duizendste seconde het verschil kan maken tussen rijkdom en armoede.
Voorbeeld: in mei 2010 startte een computerprogramma op eigen initiatief een verkoopactie waardoor in twintig minuten honderden miljarden dollars aan beurswaarde van Amerikaanse bedrijven als sneeuw voor de zon verdwenen.
Een storing van nog geen uur kostte Amazon twee miljoen dollar.

Neil MacDonald: “De algoritmen van dit soort handel zijn niet meer te begrijpen.”
Hij verwacht dat storingen door dataverkeer steeds vaker gaan voorkomen en steeds erger worden. De datastromen zijn zelf niet meer te begrijpen. Dat geldt ook voor storingen in die stromen. En hoe los je een onbegrijpelijke storing op?

Bron: De Volkskrant 26 augustus 2013