TensorFlow作为分布式机器学习平台,主要架构如下:
网络层
:远程过程调用(gRPC)和远程直接数据存取(RDMA)作为网络层,主要负责传递
神经网络算法参数
。
设备层
:CPU、GPU等设备,主要负责神经网络算法中具体的运算操作
。
运行时核心
:为Tensorflow中算法操作的具体实现,如卷积操作、激活操作等。
- 分布运行时:主机(Master)用于
构建
子图,切割
子图为多个分片,不同子图分片
运行在不同
的设备上。Master还负责分发子图切片到Worker。Worker在设备上调度执行子图操作,并负责向其他执行器发送和接收图操作的运行结果。
API
: API 把TensorFlow分割为前端和后端,前端(Python/C++/Java Client/Go)基于API触发TensorFlow后端程序运行。
训练库和推理库
:是模型训练和推导的库函数,为用户开发应用模型使用。
TensorFlow的数据流图是由节点和边组成的有向无环图
。Tensor
代表数据流图中的边
,Flow
代表数据流图中节点
所做的操作
。
TensorFlow将程序分为两个独立的部分:
- 定义并构建神经网络结构图:包括激活函数定义、损失函数定义、分类模型定义等。
- 执行神经网络模型,包括数据集输入、初始赋值及通过会话编译运行等。
示例如下:
(1)定义各种张量结构的变量,然后建立一个数据流图
,在数据流图中规定各个变量之间的计算关系,最后对数据流图进行编译,编译
之后把需要计算的输入
放进去,形成数据流
,从而形成输出值
。
import tensorflow as tft=tf.add(8,9)print(t) #数据流图中节点对应的是一个API中操作,并没有真正去运行
(2)TensorFlow涉及的运算都要放在图中,而图的运行只发生在会话
中,开启会话后,就可以用数据去填充节点,进行运算,关闭会话后就不能进行计算。
会话提供了操作运行和Tensor求值的环境。
import tensorflow as tftf.compat.v1.disable_eager_execution()#创建图one=tf.constant([1.0,2.0])two=tf.constant([3.0,4.0])oper=one*two#创建会话sess=tf.compat.v1.Session()#计算operprint(sess.run(oper))sess.close()
神经完了结构图的定义和执行分开设计,所以TensorFlow能够多平台工作以并行执行。