Update.
authorFrancois Fleuret <francois@fleuret.org>
Wed, 11 Jan 2017 08:35:21 +0000 (09:35 +0100)
committerFrancois Fleuret <francois@fleuret.org>
Wed, 11 Jan 2017 08:35:21 +0000 (09:35 +0100)
dagnn.lua
test-dagnn.lua

index 2ed25c5..1b467e7 100755 (executable)
--- a/dagnn.lua
+++ b/dagnn.lua
@@ -140,7 +140,10 @@ end
 function DAG:updateGradInput(input, gradOutput)
    self:sort()
 
-   self:applyOnModules(function(m, i, go) m:updateGradInput(i, go) end, self.outputModules, input, gradOutput)
+   self:applyOnModules(
+      function(m, i, go) m:updateGradInput(i, go) end,
+      self.outputModules, input, gradOutput
+   )
 
    for k = self.sorted, 1, -1 do
       local m = sorted[k]
index 3b1e66a..434f662 100755 (executable)
@@ -55,4 +55,4 @@ printTensorTable(output)
 
 ----------------------------------------------------------------------
 
--- gradInput = g:updateGradInput({ input }, output)
+gradInput = g:updateGradInput({ input }, output)