193434571dfdf3dbcc8ce353b1dbd59c004e6fe1
[profiler-torch.git] / README.md
1
2 This is a simple profiler to estimate processing time per module per function.
3
4 ### profiler.decorate(model, [functionsToDecorate]) ###
5
6 This function should be called before starting the computation.
7
8 t replaces functions specified in functionsToDecorate by instrumented versions which keep track of computation times. If functionsToDecorate is not provided, it decorates by default updateOutput and backward.
9
10 ### profiler.print(model, [nbSamples]) ###
11
12 Prints the measured processing times. If nbSamples is provided, the time per samples will also be printed.
13
14 It seems to work okay, but there was no heavy testing so far.
15
16 --
17 Francois Fleuret
18 Dec 5th, 2016