Fixed a bug with 0.4.0 + typo.
[agtree2dot.git] / mlp.py
diff --git a/mlp.py b/mlp.py
index 7ddb894..21d166b 100755 (executable)
--- a/mlp.py
+++ b/mlp.py
@@ -22,7 +22,6 @@ import subprocess
 from torch import nn
 from torch.nn import functional as fn
 from torch import Tensor
-from torch.autograd import Variable
 from torch.nn import Module
 
 import agtree2dot
@@ -40,8 +39,8 @@ class MLP(Module):
         return x
 
 mlp = MLP(10, 20, 1)
-input = Variable(Tensor(100, 10).normal_())
-target = Variable(Tensor(100).normal_())
+input = Tensor(100, 10).normal_()
+target = Tensor(100, 1).normal_()
 output = mlp(input)
 criterion = nn.MSELoss()
 loss = criterion(output, target)