Update.
[picoclvr.git] / problems.py
index 5161587..1f4098a 100755 (executable)
@@ -21,6 +21,37 @@ class Problem:
 ####################
 
 
+class ProblemLenId(Problem):
+    def __init__(self, nb_sentences=100, len_max=5):
+        self.len_max = len_max
+
+    def generate_sequences(self, nb):
+        k = torch.arange(self.len_max * 3 + 3)[None, :]
+        l = torch.randint(self.len_max, (2, nb))[:, :, None] + 1
+        i = torch.randint(10, (2, nb))[:, :, None]
+        a = l[0]
+        b = l[0] + 1 + l[1]
+        c = l[0] + 1 + l[1] + 1 + l[0]
+        sequences = (
+            (k < a) * i[0]
+            + (k == a) * 10
+            + (k > a) * (k < b) * i[1]
+            + (k == b) * 11
+            + (k > b) * (k < c) * i[1]
+            + (k == c) * 12
+            + (k > c) * 13
+        )
+        ar_mask = (sequences == 11).long()
+        ar_mask = (ar_mask.cumsum(1) - ar_mask).clamp(max=1)
+        return sequences, ar_mask
+
+    def seq2str(self, seq):
+        return "".join("0123456789|>.?"[x.item()] for x in seq)
+
+
+####################
+
+
 class ProblemLevel0(Problem):
     def __init__(self, nb_sentences=100, len_prompt=5, len_result=5):
         self.seq = torch.randint(10, (nb_sentences, len_prompt + 1 + len_result))
@@ -32,6 +63,12 @@ class ProblemLevel0(Problem):
         ar_mask = (ar_mask.cumsum(1) - ar_mask).clamp(max=1)
         return sequences, ar_mask
 
+    def seq2str(self, seq):
+        return "".join("0123456789|"[x.item()] for x in seq)
+
+
+####################
+
 
 class ProblemLevel1(Problem):
     def __init__(self, nb_operators=100, len_source=5, len_result=8):
@@ -64,6 +101,9 @@ class ProblemLevel1(Problem):
         return "".join("0123456789|>"[x.item()] for x in seq)
 
 
+####################
+
+
 class ProblemLevel2(Problem):
     def __init__(self, len_source=5, len_result=8):
         self.len_source = len_source