三种计算图
有三种计算图的构建方式:静态计算图,动态计算图,以及Autograph.
在TensorFlow1.0时代,采用的是静态计算图,需要先使用TensorFlow的各种算子创建计算图,然后再开启一个会话Session,显式执行计算图。
而在TensorFlow2.0时代,采用的是动态计算图,即每使用一个算子后,该算子会被动态加入到隐含的默认计算图中立即执行得到结果,而无需开启Session
因为使用动态图会有许多次Python进程和TensorFlow的C++进程之间的通信。而静态计算图构建完成之后几乎全部在TensorFlow内核上使用C++代码执行,效率更高。此外静态图会对计算步骤进行一定的优化,剪去和结果无关的计算步骤。
如果需要在TensorFlow2.0中使用静态图,可以使用@tf.function装饰器将普通Python函数转换成对应的TensorFlow计算图构建代码。运行该函数就相当于在TensorFlow1.0中用Session执行代码。使用tf.function构建静态图的方式叫做 Autograph.
在TensorFlow2.0中,使用的是动态计算图和Autograph.
实践中,我们一般会先用动态计算图调试代码,然后在需要提高性能的的地方利用@tf.function切换成Autograph获得更高的效率。
一,Autograph编码规范总结
a function with @tf.fuction such that the whole function will be compiled, optimized, and run as a single computational graph
Python “assert” within a @tf.function function will throw an exception. Use tf.debugging.assert_{condition} instead for both modes.
- 1,被
@tf.function
修饰的函数应尽可能使用TensorFlow中的函数而不是Python中的其他函数。例如使用tf.print
而不是print
,使用tf.range
而不是range
,使用tf.constant(True)
而不是True
. - 2,避免在
@tf.function
修饰的函数内部定义tf.Variable.
- 3,被
@tf.function
修饰的函数不可修改该函数外部的Python列表或字典等数据结构变量。
二,Autograph编码规范解析
1,被@tf.function修饰的函数应尽量使用TensorFlow中的函数而不是Python中的其他函数。
1 | import numpy as np |
1 | #np_random每次执行都是一样的结果。 |
1 | #tf_random每次执行都会有重新生成随机数。 |
2,避免在@tf.function修饰的函数内部定义tf.Variable.
1 | # 避免在@tf.function修饰的函数内部定义tf.Variable. |
3,被@tf.function修饰的函数不可修改该函数外部的Python列表或字典等结构类型变量。
一,Autograph的机制原理
一,Autograph和tf.Module概述
TensorFlow提供了一个基类tf.Module
,通过继承它构建子类,我们不仅可以获得以上的自然而然,而且可以非常方便地管理变量,还可以非常方便地管理它引用的其它Module,最重要的是,我们能够利用tf.saved_model保存模型并实现跨平台部署使用。
实际上,tf.keras.models.Model
,tf.keras.layers.Layer
都是继承自tf.Module
的,提供了方便的变量管理和所引用的子模块管理的功能。
因此,利用tf.Module
提供的封装,再结合TensoFlow丰富的低阶API,实际上我们能够基于TensorFlow开发任意机器学习模型(而非仅仅是神经网络模型),并实现跨平台部署使用。
1 | class DemoModule(tf.Module): |
五、TensorFlow的中阶API
TensorFlow的中阶API主要包括:
- 数据管道(tf.data)
- 特征列(tf.feature_column)
- 激活函数(tf.nn)
- 模型层(tf.keras.layers)
- 损失函数(tf.keras.losses)
- 评估函数(tf.keras.metrics)
- 优化器(tf.keras.optimizers)
- 回调函数(tf.keras.callbacks)