Dissertation/ Thesis

Generation of stochastic time series via deep learning

Bibliographic Details
Title: Generation of stochastic time series via deep learning
Authors: Vilella Piqué, Arnau
Contributors: Perez Palomar, Daniel, Universitat Politècnica de Catalunya. Departament de Teoria del Senyal i Comunicacions, Hong Kong University of Science and Technology
Source: UPCommons. Portal del coneixement obert de la UPC
Universitat Politècnica de Catalunya (UPC)
Publisher Information: Universitat Politècnica de Catalunya, 2024.
Publication Year: 2024
Subject Terms: financial asset returns, Classificació AMS::60 Probability theory and stochastic processes::60G Stochastic processes, Àrees temàtiques de la UPC::Matemàtiques i estadística, Classificació AMS::68 Computer science::68P Theory of data, Deep learning (Machine learning), probability distributions, Processos estocàstics, heavy-tailed distributions, synthetic data, Stochastic processes, generative deep learning, time series, Classificació AMS::26 Real functions::26A Functions of one variable, optimization, Aprenentatge profund
Description: En los últimos años, las técnicas generativas de aprendizaje profundo han visto un amplio uso, especialmente en la generación de imágenes y texto. Estos métodos también se han mostrado prometedores en la generación de datos de series temporales, incluso en dominios continuos. Sin embargo, tienen dificultades para capturar ciertas distribuciones de probabilidad, como las distribuciones de cola pesada comúnmente observadas en los rendimientos de activos financieros. Esta limitación surge de la continuidad Lipschitz de las redes neuronales generadoras, que impide la generación de distribuciones con colas más pesadas que el ruido previo utilizado en estos métodos. Simplemente usar un ruido previo más pesado conduce a problemas de estabilidad y extrapolación. Para abordar este desafío, nuestro trabajo propone un enfoque novedoso. Reducimos los datos de entrenamiento de series temporales al espacio de parámetros de una función de distribución acumulativa de cola pesada, donde los parámetros evolucionan con el tiempo. Luego, se emplean técnicas de aprendizaje profundo para generar esta evolución de parámetros, aprovechando la distribución de probabilidad más favorable de los datos transformados. Finalmente, se generan series temporales en el espacio original de los datos mediante la transformación inversa del espacio de parámetros utilizando la función cuantil, lo que resulta en un modelado más preciso de la distribución de la cola.
En els darrers anys, les tècniques generatives d'aprenentatge profund han vist un ampli ús, especialment en la generació d'imatges i text. Aquests mètodes també s'han mostrat prometedors en la generació de dades de sèries temporals, fins i tot en dominis continus. No obstant això, tenen dificultats per capturar certes distribucions de probabilitat, com les distribucions de cua pesada comúment observades en els rendiments d'actius financers. Aquesta limitació sorgeix de la continuïtat Lipschitz de les xarxes neuronals generadores, que impedeix la generació de distribucions amb cues més pesades que el soroll previ utilitzat en aquests mètodes. Utilitzar senzillament un soroll previ més pesat porta a problemes d'estabilitat i extrapolació. Per abordar aquest repte, el nostre treball proposa un enfocament innovador. Reduïm les dades d'entrenament de sèries temporals a l'espai de paràmetres d'una funció de distribució acumulativa de cua pesada, on els paràmetres evolucionen amb el temps. Després, s'utilitzen tècniques d'aprenentatge profund per generar aquesta evolució de paràmetres, aprofitant la distribució de probabilitat més favorable de les dades transformades. Finalment, es generen sèries temporals en l'espai original de les dades mitjançant la transformació inversa de l'espai de paràmetres utilitzant la funció quantil, el que resulta en un modelatge més precís de la distribució de la cua.
In recent years, generative deep learning techniques have seen widespread use, particularly in image and text generation. These methods have also shown promise in generating time series data, even in continuous domains. However, they struggle to capture certain probability distributions, such as the heavy-tailed distributions commonly observed in financial asset returns. This limitation arises from the Lipschitz continuity of the generator neural networks, which prevents the generation of distributions with heavier tails than the prior noise used in these methods. Simply using a heavier prior noise leads to stability and extrapolation issues. To address this challenge, our work proposes a novel approach. We reduce time series training data to the parameter space of a heavy-tailed cumulative distribution function, where the parameters evolve over time. Deep learning techniques are then employed to generate this parameter evolution, leveraging the more favourable probability distribution of the transformed data. Finally, time series on the sample space are generated by inversely transforming the parameter space using the quantile function, resulting in a more accurate modelling of the tail distribution.
Outgoing
Document Type: Bachelor thesis
File Description: application/pdf
Language: English
Access URL: https://hdl.handle.net/2117/411123
Rights: CC BY NC ND
Accession Number: edsair.dedup.wf.002..7b9de166a7db9b15ce98d24c6339fa63
Database: OpenAIRE
Description
Description not available.