Update.
[mygptrnn.git] / maxval.py
1 #!/usr/bin/env python
2
3 import torch
4
5 ######################################################################
6
7
8 def baseline(X, V):
9     Y = X.new(X.size())
10     W = V.new(V.size())
11     for t in range(X.size(1)):
12         if t == 0:
13             Y[:, t] = X[:, t]
14             W[:, t] = V[:, t]
15         else:
16             m = (V[:, t] >= W[:, t - 1] - 1).long()
17             Y[:, t] = m * X[:, t] + (1 - m) * Y[:, t - 1]
18             W[:, t] = m * V[:, t] + (1 - m) * (W[:, t - 1] - 1)
19
20     return Y, W
21
22
23 ######################################################################
24
25
26 def pscan(X, V, s=1):
27     if X.size(1) == 1:
28         return
29
30     T = 2 * (X.size(1) // 2)
31
32     Xf = X[:, :T].view(X.size(0), X.size(1) // 2, 2, X.size(2))
33     Vf = V[:, :T].view(V.size(0), V.size(1) // 2, 2)
34
35     # [:, :, 0] < [:, :, 1]
36     m = (Vf[:, :, 0] - s >= Vf[:, :, 1]).long()
37     Vf[:, :, 1] = m * (Vf[:, :, 0] - s) + (1 - m) * Vf[:, :, 1]
38     m = m[:, :, None]
39     Xf[:, :, 1] = m * Xf[:, :, 0] + (1 - m) * Xf[:, :, 1]
40
41     pscan(Xf[:, :, 1], Vf[:, :, 1], s * 2)
42
43     # [:, :-1, 1] < [:, 1:, 0]
44     m = (Vf[:, :-1, 1] - s >= Vf[:, 1:, 0]).long()
45     Vf[:, 1:, 0] = m * (Vf[:, :-1, 1] - s) + (1 - m) * Vf[:, 1:, 0]
46     m = m[:, :, None]
47     Xf[:, 1:, 0] = m * Xf[:, :-1, 1] + (1 - m) * Xf[:, 1:, 0]
48
49     if T < X.size(1):
50         # [:, -2] < [:, -1]
51         m = (V[:, -2] - s >= V[:, -1]).long()
52         V[:, -1] = m * (V[:, -2] - s) + (1 - m) * V[:, -1]
53         m = m[:, None]
54         X[:, -1] = m * X[:, -2] + (1 - m) * X[:, -1]
55
56
57 ######################################################################
58
59
60 def pscan_diff(X, V, s=1):
61     if X.size(1) == 1:
62         return
63
64     T = 2 * (X.size(1) // 2)
65
66     Xf = X[:, :T].view(X.size(0), X.size(1) // 2, 2, X.size(2))
67     Vf = V[:, :T].view(V.size(0), V.size(1) // 2, 2)
68
69     # [:, :, 0] < [:, :, 1]
70     m = (Vf[:, :, 0] - s >= Vf[:, :, 1]).long()
71     Vf[:, :, 1] = m * (Vf[:, :, 0] - s) + (1 - m) * Vf[:, :, 1]
72     m = m[:, :, None]
73     Xf[:, :, 1] = m * Xf[:, :, 0] + (1 - m) * Xf[:, :, 1]
74
75     pscan_diff(Xf[:, :, 1], Vf[:, :, 1], s * 2)
76
77     # [:, :-1, 1] < [:, 1:, 0]
78     m = (Vf[:, :-1, 1] - s >= Vf[:, 1:, 0]).long()
79     Vf[:, 1:, 0] = m * (Vf[:, :-1, 1] - s) + (1 - m) * Vf[:, 1:, 0]
80     m = m[:, :, None]
81     Xf[:, 1:, 0] = m * Xf[:, :-1, 1] + (1 - m) * Xf[:, 1:, 0]
82
83     if T < X.size(1):
84         # [:, -2] < [:, -1]
85         m = (V[:, -2] - s >= V[:, -1]).long()
86         V[:, -1] = m * (V[:, -2] - s) + (1 - m) * V[:, -1]
87         m = m[:, None]
88         X[:, -1] = m * X[:, -2] + (1 - m) * X[:, -1]
89
90
91 ######################################################################
92
93 if __name__ == "__main__":
94     N = 1
95     T = 513
96     D = 2
97
98     X = torch.randn(N, T, D, dtype=torch.float64).requires_grad_()
99     V = torch.rand(N, T, dtype=torch.float64) * 10
100
101     X0, V0 = baseline(X, V)
102
103     # print("########### X0 V0 ###########################################")
104     # print(V0)
105     # print(X0)
106
107     X1, V1 = X.clone(), V.clone()
108     pscan_diff(X1, V1)
109
110     # print("########### X V ############################################")
111     # print(V)
112     # print(X)
113
114     print("ERROR", ((X0 - X1).abs().max() + (V0 - V1).abs().max()).item())
115
116     exit(0)
117
118     # s = X1.sum()
119     # print(torch.autograd.grad(s, X))
120
121     # with open("/tmp/v.dat", "w") as f:
122     # for t in range(T):
123     # f.write(f"{V1[0,t].item()}\n")
124
125     Y = torch.randn(1, 1, D)
126     X = torch.randn(
127         N, T, D
128     )  # * 0.1 + (torch.rand(N,T,1).sort(dim=1).indices==0).float() * Y
129     V = torch.rand(N, T).requires_grad_()
130
131     optimizer = torch.optim.SGD([V], lr=1e-2)
132
133     for k in range(1000):
134         X1, V1 = X.clone(), V.clone()
135         pscan(X, V, X1, V1)
136         # X1=X1*(1+V1-V1.detach())[:,:,None]
137         loss = (X1[:, -1:] - Y).pow(2).mean()
138         print(k, loss.item())
139         optimizer.zero_grad()
140         loss.backward()
141         optimizer.step()