Update.
[picoclvr.git] / escape.py
1 #!/usr/bin/env python
2
3 # Any copyright is dedicated to the Public Domain.
4 # https://creativecommons.org/publicdomain/zero/1.0/
5
6 # Written by Francois Fleuret <francois@fleuret.org>
7
8 import torch
9
10 from torch.nn import functional as F
11
12 ######################################################################
13
14 nb_state_codes = 4
15 nb_actions_codes = 5
16 nb_rewards_codes = 3
17 nb_lookahead_rewards_codes = 3
18
19 first_state_code = 0
20 first_actions_code = first_state_code + nb_state_codes
21 first_rewards_code = first_actions_code + nb_actions_codes
22 first_lookahead_rewards_code = first_rewards_code + nb_rewards_codes
23 nb_codes = first_lookahead_rewards_code + nb_lookahead_rewards_codes
24
25 ######################################################################
26
27
28 def generate_episodes(nb, height=6, width=6, T=10):
29     rnd = torch.rand(nb, height, width)
30     rnd[:, 0, :] = 0
31     rnd[:, -1, :] = 0
32     rnd[:, :, 0] = 0
33     rnd[:, :, -1] = 0
34     wall = 0
35
36     for k in range(3):
37         wall = wall + (
38             rnd.flatten(1).argmax(dim=1)[:, None]
39             == torch.arange(rnd.flatten(1).size(1))[None, :]
40         ).long().reshape(rnd.size())
41         rnd = rnd * (1 - wall.clamp(max=1))
42
43     states = wall[:, None, :, :].expand(-1, T, -1, -1).clone()
44
45     agent = torch.zeros(states.size(), dtype=torch.int64)
46     agent[:, 0, 0, 0] = 1
47     agent_actions = torch.randint(5, (nb, T))
48     rewards = torch.zeros(nb, T, dtype=torch.int64)
49
50     monster = torch.zeros(states.size(), dtype=torch.int64)
51     monster[:, 0, -1, -1] = 1
52     monster_actions = torch.randint(5, (nb, T))
53
54     all_moves = agent.new(nb, 5, height, width)
55     for t in range(T - 1):
56         all_moves.zero_()
57         all_moves[:, 0] = agent[:, t]
58         all_moves[:, 1, 1:, :] = agent[:, t, :-1, :]
59         all_moves[:, 2, :-1, :] = agent[:, t, 1:, :]
60         all_moves[:, 3, :, 1:] = agent[:, t, :, :-1]
61         all_moves[:, 4, :, :-1] = agent[:, t, :, 1:]
62         a = F.one_hot(agent_actions[:, t], num_classes=5)[:, :, None, None]
63         after_move = (all_moves * a).sum(dim=1)
64         collision = (
65             (after_move * (1 - wall) * (1 - monster[:, t]))
66             .flatten(1)
67             .sum(dim=1)[:, None, None]
68             == 0
69         ).long()
70         agent[:, t + 1] = collision * agent[:, t] + (1 - collision) * after_move
71
72         all_moves.zero_()
73         all_moves[:, 0] = monster[:, t]
74         all_moves[:, 1, 1:, :] = monster[:, t, :-1, :]
75         all_moves[:, 2, :-1, :] = monster[:, t, 1:, :]
76         all_moves[:, 3, :, 1:] = monster[:, t, :, :-1]
77         all_moves[:, 4, :, :-1] = monster[:, t, :, 1:]
78         a = F.one_hot(monster_actions[:, t], num_classes=5)[:, :, None, None]
79         after_move = (all_moves * a).sum(dim=1)
80         collision = (
81             (after_move * (1 - wall) * (1 - agent[:, t + 1]))
82             .flatten(1)
83             .sum(dim=1)[:, None, None]
84             == 0
85         ).long()
86         monster[:, t + 1] = collision * monster[:, t] + (1 - collision) * after_move
87
88         hit = (
89             (agent[:, t + 1, 1:, :] * monster[:, t + 1, :-1, :]).flatten(1).sum(dim=1)
90             + (agent[:, t + 1, :-1, :] * monster[:, t + 1, 1:, :]).flatten(1).sum(dim=1)
91             + (agent[:, t + 1, :, 1:] * monster[:, t + 1, :, :-1]).flatten(1).sum(dim=1)
92             + (agent[:, t + 1, :, :-1] * monster[:, t + 1, :, 1:]).flatten(1).sum(dim=1)
93         )
94         hit = (hit > 0).long()
95
96         assert hit.min() == 0 and hit.max() <= 1
97
98         rewards[:, t + 1] = -hit + (1 - hit) * agent[:, t + 1, -1, -1]
99
100     states += 2 * agent + 3 * monster
101
102     return states, agent_actions, rewards
103
104
105 ######################################################################
106
107
108 def episodes2seq(states, actions, rewards, lookahead_delta=None):
109     states = states.flatten(2) + first_state_code
110     actions = actions[:, :, None] + first_actions_code
111
112     if lookahead_delta is not None:
113         r = rewards
114         u = F.pad(r, (0, lookahead_delta - 1)).as_strided(
115             (r.size(0), r.size(1), lookahead_delta),
116             (r.size(1) + lookahead_delta - 1, 1, 1),
117         )
118         a = u[:, :, 1:].min(dim=-1).values
119         b = u[:, :, 1:].max(dim=-1).values
120         s = (a < 0).long() * a + (a >= 0).long() * b
121         lookahead_rewards = (1 + s[:, :, None]) + first_lookahead_rewards_code
122
123     r = rewards[:, :, None]
124     rewards = (r + 1) + first_rewards_code
125
126     assert (
127         states.min() >= first_state_code
128         and states.max() < first_state_code + nb_state_codes
129     )
130     assert (
131         actions.min() >= first_actions_code
132         and actions.max() < first_actions_code + nb_actions_codes
133     )
134     assert (
135         rewards.min() >= first_rewards_code
136         and rewards.max() < first_rewards_code + nb_rewards_codes
137     )
138
139     if lookahead_delta is None:
140         return torch.cat([states, actions, rewards], dim=2).flatten(1)
141     else:
142         assert (
143             lookahead_rewards.min() >= first_lookahead_rewards_code
144             and lookahead_rewards.max()
145             < first_lookahead_rewards_code + nb_lookahead_rewards_codes
146         )
147         return torch.cat([states, actions, rewards, lookahead_rewards], dim=2).flatten(
148             1
149         )
150
151
152 def seq2episodes(seq, height, width, lookahead=False):
153     seq = seq.reshape(seq.size(0), -1, height * width + (3 if lookahead else 2))
154     states = seq[:, :, : height * width] - first_state_code
155     states = states.reshape(states.size(0), states.size(1), height, width)
156     actions = seq[:, :, height * width] - first_actions_code
157     rewards = seq[:, :, height * width + 1] - first_rewards_code - 1
158
159     if lookahead:
160         lookahead_rewards = (
161             seq[:, :, height * width + 2] - first_lookahead_rewards_code - 1
162         )
163         return states, actions, rewards, lookahead_rewards
164     else:
165         return states, actions, rewards
166
167
168 ######################################################################
169
170
171 def episodes2str(
172     states, actions, rewards, lookahead_rewards=None, unicode=False, ansi_colors=False
173 ):
174     if unicode:
175         symbols = " █@$"
176         # vert, hori, cross, thin_hori = "║", "═", "╬", "─"
177         vert, hori, cross, thin_vert, thin_hori = "┃", "━", "╋", "│", "─"
178     else:
179         symbols = " #@$"
180         vert, hori, cross, thin_vert, thin_hori = "|", "-", "+", "|", "-"
181
182     hline = (cross + hori * states.size(-1)) * states.size(1) + cross + "\n"
183
184     result = hline
185
186     for n in range(states.size(0)):
187
188         def state_symbol(v):
189             v = v.item()
190             return "?" if v < 0 or v >= len(symbols) else symbols[v]
191
192         for i in range(states.size(2)):
193             result += (
194                 vert
195                 + vert.join(
196                     ["".join([state_symbol(v) for v in row]) for row in states[n, :, i]]
197                 )
198                 + vert
199                 + "\n"
200             )
201
202         result += (vert + thin_hori * states.size(-1)) * states.size(1) + vert + "\n"
203
204         def status_bar(a, r, lr=None):
205             a, r = a.item(), r.item()
206             sb_a = "ISNEW"[a] if a >= 0 and a < 5 else "?"
207             sb_r = " " + ("- +"[r + 1] if r in {-1, 0, 1} else "?")
208             if lr is not None:
209                 lr = lr.item()
210                 sb_r = sb_r + "/" + ("- +"[lr + 1] if lr in {-1, 0, 1} else "?")
211             return sb_a + " " * (states.size(-1) - len(sb_a) - len(sb_r)) + sb_r
212
213         if lookahead_rewards is None:
214             result += (
215                 vert
216                 + vert.join([status_bar(a, r) for a, r in zip(actions[n], rewards[n])])
217                 + vert
218                 + "\n"
219             )
220         else:
221             result += (
222                 vert
223                 + vert.join(
224                     [
225                         status_bar(a, r, lr)
226                         for a, r, lr in zip(
227                             actions[n], rewards[n], lookahead_rewards[n]
228                         )
229                     ]
230                 )
231                 + vert
232                 + "\n"
233             )
234
235         result += hline
236
237     if ansi_colors:
238         for u, c in [("$", 31), ("@", 32)]:
239             result = result.replace(u, f"\u001b[{c}m{u}\u001b[0m")
240
241     return result
242
243
244 ######################################################################
245
246 if __name__ == "__main__":
247     nb, height, width, T = 8, 4, 6, 20
248     states, actions, rewards = generate_episodes(nb, height, width, T)
249     seq = episodes2seq(states, actions, rewards, lookahead_delta=5)
250     s, a, r, lr = seq2episodes(seq, height, width, lookahead=True)
251     print(episodes2str(s, a, r, lookahead_rewards=lr, unicode=True, ansi_colors=True))