FateWithShellmiaoComment

Shellmiao 2032e77c72 Update env requirements 1 år sedan
.idea 7cd6e4c9e6 Add Pycharm files 1 år sedan
FATE-Flow 9279d1873b Add projects 1 år sedan
Fate 9279d1873b Add projects 1 år sedan
README.md 2032e77c72 Update env requirements 1 år sedan

README.md

Fate-flow源码阅读记录

环境配置

将Fate-flow项目PULL至本地,链接为: https://github.com/FederatedAI/FATE-Flow

Python使用版本:

  • Python 3.8

Pip安装需要的包:

  • grpcio
  • requests
  • werkzeug
  • flask
  • requests_toolbelt
  • cachetools
  • ruamel.yaml
  • filelock
  • peewee
  • python-dotenv
  • apsw
  • protobuf==3.20
  • psutil
  • cos-python-sdk-v5
  • casbin
  • casbin_sqlalchemy_adapter
  • numpy
  • pymysql
  • beautifultable
  • kazoo
  • shortuuid
pip install grpcio requests werkzeug flask requests_toolbelt cachetools ruamel.yaml filelock peewee python-dotenv apsw protobuf==3.20 psutil cos-python-sdk-v5 casbin numpy casbin_sqlalchemy_adapter pymysql beautifultable kazoo shortuuid

由于需要引用Fate项目中的代码,需要将Fate项目PULL下来做引用

  1. 将Fate项目从此处PULL下来
  2. 在项目所使用的Python环境根目录下,寻找\Lib\site-packages目录,在其中创建mypath.pth文件
  3. 在mypath.pth文件中写入Fate以及Fate flow项目的绝对路径

逻辑结构

img

  • DSL定义作业
  • 自顶向下的纵向子任务流调度、多参与方联合子任务协调
  • 独立隔离的任务执行工作进程
  • 支持多类型多版本组件
  • 计算抽象API
  • 存储抽象API
  • 跨方传输抽象API

Fate总体架构

img

Fate Flow架构

Fate Flow早期架构图

img

各个模块的功能如下(来自 构建端到端的联邦学习 Pipeline 生产服务):

  • DSL Parser:是调度的核心,通过 DSL parser 解析到一个计算任务的上下游关系及依赖等。
  • Job Scheduler:是 DAG 层面的调度,把 DAG 作为一个 Job,DAG 里面的节点执行称为 task,也就是说一个 Job 会包含若干个 task
  • Federated Task Scheduler:最小调度粒度就是 task,需要调度多方运行同一个组件但参数算法不同的 task,结束后,继续调度下一个组件,这里就会涉及到协同调度
  • Job Controller:联邦任务控制器
  • Executor:联邦任务执行节点,支持不同的 Operator 容器,现在支持 Python 和 Script 的 Operator。Executor,在我们目前的应用中拉起 FederatedML 定义的一些组件,如 data io 数据输入输出,特征选择等模块,每次调起一个组件去执行,然后,这些组件会调用基础架构的 API,如 Storage 和 Federation Service (API 的抽象) ,再经过 Proxy 就可以和对端的 FATE-Flow 进行协同调度。
    • 注:这里还用老版本的说明,即 Proxy+Federation,最新版本统一为 RollSite
  • Tracking Manager:任务输入输出的实时追踪,包括每个 task 输出的 data 和 model。
  • Model Manager:联邦模型管理器

Fate Flow官方优化后架构图

img

联邦学习任务多方协同调度

img

  1. 首先,是以任务提交的一种方式,提交任务到 Queue
  2. 然后 JobScheduler 会把这个任务拿出来给到 Federated TaskScheduler 调度,Federated TaskScheduler 通过 Parser 取得下游 N 个无依赖的 Component
  3. 再调度 Executor (由两部分组成:Tracking Manager 和 Task) 执行,同时这个任务会分发到联邦学习的各个参与方 Host
  4. 联邦参与方取得任务,如果是 New Job,则放入队列(参与方会定期调度队列中的 Job),否则启动多个 Executor 执行
  5. Executor 在 run 的过程中,会利用 Federation API 进行联邦学习中的参数交互
  6. 对一个联邦学习任务,每一方的 Job id 是保持一致的,每跑一个 Component,它的 Task id 也是一致的
  7. 每个 Task 跑完 Initiator TaskScheduler 会收集各方的状态,进行下一步的调度

参考资料

【联邦学习之旅】C1 FATE Flow 流程源码解析

The official FATE Flow documentation