Update.
[mygptrnn.git] / maxval.py
1 #!/usr/bin/env python
2
3 import torch
4
5 ######################################################################
6
7
8 def baseline(X, V):
9     Y = X.new(X.size())
10     W = V.new(V.size())
11     for t in range(X.size(1)):
12         if t == 0:
13             Y[:, t] = X[:, t]
14             W[:, t] = V[:, t]
15         else:
16             m = (V[:, t] >= W[:, t - 1] - 1).long()
17             Y[:, t] = m * X[:, t] + (1 - m) * Y[:, t - 1]
18             W[:, t] = m * V[:, t] + (1 - m) * (W[:, t - 1] - 1)
19
20     return Y, W
21
22
23 ######################################################################
24
25
26 def pscan(X, V, s=1):
27     if X.size(1) == 1:
28         return X, V
29
30     T = 2 * (X.size(1) // 2)
31
32     Xf = X[:, :T].view(X.size(0), X.size(1) // 2, 2, X.size(2))
33     Vf = V[:, :T].view(V.size(0), V.size(1) // 2, 2)
34
35     m = (Vf[:, :, 0] - s >= Vf[:, :, 1]).long()
36     Vf[:, :, 1] = m * (Vf[:, :, 0] - s) + (1 - m) * Vf[:, :, 1]
37     m = m[:, :, None]
38     Xf[:, :, 1] = m * Xf[:, :, 0] + (1 - m) * Xf[:, :, 1]
39
40     pscan(Xf[:, :, 1], Vf[:, :, 1], s * 2)
41
42     m = (Vf[:, 1:, 0] >= Vf[:, :-1, 1] - s).long()
43     Vf[:, 1:, 0] = m * Vf[:, 1:, 0] + (1 - m) * (Vf[:, :-1, 1] - s)
44     m = m[:, :, None]
45     Xf[:, 1:, 0] = m * Xf[:, 1:, 0] + (1 - m) * Xf[:, :-1, 1]
46
47     if T < X.size(1):
48         m = (V[:, -2] - s >= V[:, -1]).long()
49         V[:, -1] = m * (V[:, -2] - s) + (1 - m) * V[:, -1]
50         m = m[:, None]
51         X[:, -1] = m * X[:, -2] + (1 - m) * X[:, -1]
52
53
54 ######################################################################
55
56 if __name__ == "__main__":
57     N = 1
58     T = 513
59     D = 2
60
61     # X = torch.randn(N, T, D, dtype=torch.float64).requires_grad_()
62     # V = torch.rand(N, T, dtype=torch.float64) * 50
63
64     # X0, V0 = baseline(X, V)
65
66     # print("########### X0 V0 ###########################################")
67     # print(V0)
68     # print(X0)
69
70     # X1, V1 = X.clone(), V.clone()
71     # pscan(X1, V1)
72
73     # print("########### X V ############################################")
74     # print(V)
75     # print(X)
76
77     # print("ERROR", ((X0 - X1).abs().max() + (V0 - V1).abs().max()).item())
78
79     # s = X1.sum()
80     # print(torch.autograd.grad(s, X))
81
82     # with open("/tmp/v.dat", "w") as f:
83     # for t in range(T):
84     # f.write(f"{V1[0,t].item()}\n")
85
86     Y = torch.randn(1, 1, D)
87     X = torch.randn(
88         N, T, D
89     )  # * 0.1 + (torch.rand(N,T,1).sort(dim=1).indices==0).float() * Y
90     V = torch.rand(N, T).requires_grad_()
91
92     optimizer = torch.optim.SGD([V], lr=1e-2)
93
94     for k in range(1000):
95         X1, V1 = X.clone(), V.clone()
96         pscan(X1, V1)
97         # X1=X1*(1+V1-V1.detach())[:,:,None]
98         loss = (X1[:, -1:] - Y).pow(2).mean()
99         print(k, loss.item())
100         optimizer.zero_grad()
101         loss.backward()
102         optimizer.step()