La modelització directa de la probabilitat ofereix molts avantatges. Per exemple, la probabilitat logarítmica negativa es pot calcular directament i minimitzar com a funció de pèrdua. A més, es poden generar mostres noves mitjançant el mostreig de la distribució inicial i l'aplicació de la transformació del flux.
Deixar ser una variable aleatòria (possiblement multivariant) amb distribució .
Per , deixar ser una seqüència de variables aleatòries transformades de . Les funcions hauria de ser inversible, és a dir, la funció inversa existeix. La sortida final modela la distribució objectiu.
La probabilitat de registre de és (vegeu la derivació):
Per calcular de manera eficient la probabilitat de registre, les funcions hauria de ser 1. fàcil d'invertir, i 2. fàcil de calcular el determinant del seu jacobià. A la pràctica, les funcions es modelen mitjançant xarxes neuronals profundes i s'entrenen per minimitzar la probabilitat de registre negatiu de les mostres de dades de la distribució objectiu. Aquestes arquitectures solen estar dissenyades de manera que només cal el pas endavant de la xarxa neuronal tant en els càlculs inversos com en els determinants jacobians. Alguns exemples d'aquestes arquitectures inclouen NICE, RealNVP, i Glow.[4]