Update.
[picoclvr.git] / expr.py
1 #!/usr/bin/env python
2
3 import math, re
4
5 import torch, torchvision
6
7 from torch import nn
8 from torch.nn import functional as F
9
10
11 def random_var(nb_variables=None, variables=None):
12     if variables is None:
13         return chr(ord("A") + torch.randint(nb_variables, (1,)).item())
14     else:
15         l = list(variables)
16         return l[torch.randint(len(l), (1,)).item()]
17
18
19 def random_expr(variables, operand_max, budget):
20     if budget <= 5:
21         op = torch.randint(2, (1,)).item()
22         if op == 0 and len(variables) > 0:
23             return random_var(variables=variables)
24         else:
25             return str(torch.randint(operand_max + 1, (1,)).item())
26     else:
27         op = torch.randint(3, (1,)).item()
28         if op == 0:
29             e = random_expr(variables, operand_max, budget - 2)
30             if ("+" in e or "-" in e or "*" in e) and (e[0] != "(" or e[-1] != ")"):
31                 return "(" + e + ")"
32             else:
33                 return e
34         else:
35             b = 2 + torch.randint(budget - 5, (1,)).item()
36             e1 = random_expr(variables, operand_max, b)
37             e2 = random_expr(variables, operand_max, budget - b - 1)
38             if op == 1:
39                 return e1 + "+" + e2
40             elif op == 2:
41                 return e1 + "*" + e2
42
43
44 def generate_program(nb_variables, operand_max, length):
45     s = ""
46     variables = set()
47
48     while len(s) < length:
49         v = random_var(nb_variables=nb_variables)
50         s += v + "=" + random_expr(variables, operand_max, budget=20) + ";"
51         variables.add(v)
52
53     return s, variables
54
55
56 def generate_sequences(nb, nb_variables=5, length=20, operand_max=9, result_max=99):
57     assert nb_variables <= 26
58     sequences = []
59
60     for n in range(nb):
61         # We take length itself half of the time, and uniform between
62         # 1 and length otherwise. The actual length can be slightly
63         # greater
64
65         l = min(length, 1 + torch.randint(length * 2, (1,)).item())
66         result = None
67         while result == None or max(result.values()) > result_max:
68             p, v = generate_program(nb_variables, operand_max, l)
69             v = ", ".join(['"' + v + '": ' + v for v in v])
70             ldict = {}
71             exec(p + "result={" + v + "}", globals(), ldict)
72             result = ldict["result"]
73
74         k = list(result.keys())
75         k.sort()
76         sequences.append(p + " " + "".join([v + ":" + str(result[v]) + ";" for v in k]))
77
78     return sequences
79
80
81 def extract_results(seq):
82     f = lambda a: (a[0], -1 if a[1] == "" else int(a[1]))
83     results = [
84         dict([f(tuple(x.split(":"))) for x in re.findall("[A-Z]:[0-9]*", s)])
85         for s in seq
86     ]
87     return results
88
89
90 if __name__ == "__main__":
91     import time
92
93     start_time = time.perf_counter()
94     sequences = generate_sequences(1000, length=40)
95     end_time = time.perf_counter()
96     for s in sequences[:10]:
97         print(s)
98     print(f"{len(sequences) / (end_time - start_time):.02f} samples per second")
99
100     print(extract_results(sequences[:10]))