Loading…
Thumbnail Image

Applications of tensor networks in quantum chemistry and polynomial regression

Götte, Michael

We introduce the concept of block sparse tensor trains to the mathematical community, which is known to physicists as sector decomposed matrix product states. We generalize it to a class of Laplace-like operators and show that it is well-behaved with the tangent space projection on the tensor train manifold. We discuss known tensor network methods in the context of this block sparsity. We give an explicit construction of the quantum mechanical Hamiltonian, as it appears in Quantum Chemistry, as a tensor train operator with quadratic rank bound. We introduce a novel method to solve the high dimensional Schr\"odinger equation, namely a preconditioned projected conjugate gradient method, where we use the inverse of the Fock operator as a preconditioner. We apply this method to the water and the nitrogen molecule. We discuss how tensor network methods can be used to efficiently learn equation systems based on data. For that the concept of the selection tensor is introduced, which enables us to reuse information for different equations of the equation system. We demonstrate this for a prototype system of equations, the Fermi-Pasta equations. We apply block sparsity to multi polynomial spaces which are used in polynomial regression. We show explicit bounds on the block sizes in the tensor train format for interesting multi polynomial spaces and discuss the expressivity of tensor trains for polynomial regression problems.
Wir erläutern das Konzept von blocksparsen Tensortrains für die angewandte Mathematik. Dieses Konzept ist Physikern schon unter dem Namen sektorzerlegte Matrixproduktzustände bekannt. Wir verallgemeinern dieses Konzept für eine Klasse von Lapace-artigen Operatoren und zeigen, dass es sich gutartig mit der Tangentialraumprojektion verhält. Wir zeigen, welche Auswirkungen Blocksparsity auf bekannte Tensornetzwerkmethoden hat. Wir geben eine explizite Konstruktion des quantenmechanischen Hamiltonians als Tensortrainoperator mit quadratischem Rang an, wie er in der Quantumchemie auftaucht. Wir präsentieren eine neue Methode zum Lösen der hochdimensionalen Schrödingergleichung, nämlich ein vorkonditioniertes, projiziertes, konjugiertes Gradientenabstiegsverfahren, wo wir das Inverse des Fockoperators als Vorkonditionierer verwenden. Wir wenden dieses Verfahren auf das Wasser- und das Stickstoffmolekül an. Wir diskutieren, wie Tensornetzwerkmethoden benutzt werden können, um Gleichungssysteme effizient aus Daten zu lernen. Dafür erörtern wir das Konzept des Selectiontensors, welches uns erlaubt Informationen von verschiedenen Gleichungen des Gleichungssystems wiederzuverwenden. Wir zeigen, dass es möglich ist mit Hilfe dieses Ansatzes manche Gleichungssysteme effizienter zu lernen, zum Beispiel die Fermi-Pasta Gleichungen. Wir wenden Blocksparsity auf Multipolynomräume an, welche für polynomielle Regression verwendet werden. Wir zeigen explizite Schranken für die Blockgröße im Tensortrainformat für interessante Multipolynomräume und wir diskutieren die Darstellungsmöglichkeiten von Tensortrains im Kontext von polynomieller Regression.