Een wat uitgebreidere beschrijving van het algoritme wat LIBRA hanteert.
Per fonds/dag zijn een aantal honderden gegevens bekend.
Om een analyse te plegen zijn veel variabelen onontbeerlijk.
Gemiddelden, Exponentiele gemiddelden,volatilities variantie's enz enz
Soms zijn er verborgen gegevens.
b.v.
Het is voor een ieder niet zo moeilijk om te zien dat een koers op een bepaalde dag mooi omhoog is gegaan, of juist in een bepaald patroon gedaald is.Wij kunnen er een soort cijfer aan geven.
Alleen: Hoe bouw je een algoritme zodat de computer als het ware ziet wat jij ziet?
Probeer eerst de logica van je eigen denken te analyseren, sluit subjectiviteit uit.
Het is mogelijk om een algoritme te bouwen waarbij de computer een getal tussen de 1 en 10 genereerd . Een mooie dag 10 een slechte dag 1 en alles daar tussen.
Dus hoe meer variabelen hoe beter.
Het uiteindelijke algoritme waar LIBRA mee werkt is ooit empirisch ontstaan.
Elk fonds heeft een eigen file.
Zijn files lang genoeg en bevatten de files genoeg variabelen , dan is het de kunst te bepalen wat er nou meestal voorkomt in de buurt van een koersdal of in de buurt van een koerstop.
Het bepalen van de parameters die relevant zijn, was een helse klus.
Evenals het gewicht wat toegekend moet worden aan elke variabele.
Echter ook hier zijn er hulpmiddelen als b.v. curve fitting.
Door alle databases honderden malen elke keer met ander parameters door te laten rekenen.
ontstond een (comlex) algoritme met het hoogste rendement.
Het gedrag van LIBRA is dus gebaseerd op een empirisch ontstaan algoritme.
De koop strategie van LIBRA is proberen het dal van een koers te vinden.
Verkopen is een heel ander verhaal en hangt van andere, vaak persoonlijke, factoren af.
Libra heeft een op mijn visie georienteerde verkoop strategie.
Het testen van het algoritme gebeurd in een omgeving waar tot 6 jaar terug gekeken kan worden.
mvg