Mission & besoins

La mission du data analyst buy-side est de collecter une grande diversité de données, de les organiser intelligemment pour en faciliter l'utilisation, de les manipuler pour construire des données augmentées ou des prévisions de marché, et de les rendre accessibles aux autres équipe et en particulier aux gérants de portefeuille.

Son premier besoin est d'être capable de collecter et organiser intelligemment des jeux de données larges et variés quant à:

checkbox
Leur nature:

prix de marché, données comptables et de consensus, indicateurs ESG, données macroéconomiques ou sectorielles

checkbox
Leur couverture:

géographique et par classes d'actifs

checkbox
Leur format:

jeux de données structurées ou non structurées

checkbox
Leur fréquence,

qui peut aller jusqu'à l'intraday

Il est également indispensable que les données soient horodatées et que leur date de mise à disposition soit stockée pour éviter tous biais "look-ahead" dans les backtests.

Un cas d'usage typique est celui de l'analyste ESG qui:

      (1) collecte au fil de l'eau les réponses d'entreprises à des questionnaires ESG;
      (2) utilise des scores fournis par des tiers;
      (3) souhaite enrichir son analyse avec des données non structurées comme des températures mondiales...

Toutes ces informations sont alors utilisées pour construire des scores ESG sur un large univers de sociétés.

L'offre StarQube

  • checkbox
    Une base de données NoSQL optimisée pour la gestion de gros volumes de données
  • checkbox
    L'organisation des données autour d'un référentiel unique
  • checkbox
    Un langage simplifié pour manipuler les données, les transformer et construire des données augmentées (e.g. des scores ESG propriétaires)
  • checkbox
    La connexion de la base de données à toutes sources externes pour une mise à jour en temps réel des données
  • checkbox
    L'horodatage de toutes les données pour éviter les biais "look-ahead" dans les backtests et offrir des pistes d'audit
  • checkbox
    La capacité à collecter des données directement sur internet par web scraping

Package recommandé