Chinaunix首页 | 论坛 | 博客
  • 博客访问: 429190
  • 博文数量: 210
  • 博客积分: 0
  • 博客等级: 民兵
  • 技术积分: 1575
  • 用 户 组: 普通用户
  • 注册时间: 2018-03-07 14:59
文章分类
文章存档

2019年(160)

2018年(50)

我的朋友

分类: 系统运维

2019-08-20 13:53:39

在开发过程中,耗时长,超时的任务经常发生,比如:获取后端某个大文件数据超时、需要后端计算任务超时,等等,此时我们就会很自然的想到异步方式,根据需要完成的任务创建一个task_id, 由前端来监听该任务是否完成。

初始化celery

celery = Celery('celery_demo', broker=app.config.get('CELERY_BROKER_URL'),backend=app.config.get('CELERY_BACKEND_URL'))

在需要异步执行的方法上使用@celery.task装饰器

@celery.task

 def add(a,b):

  return a+b

在方法调用时,需要使用fun.delay(args)

add.delay(1,2)

celery启动

celery -A apps.celery worker -l info --concurrency=3

坑:在使用celery异步进行数据库进行交互时,务必手动断开连接,否则容易造成,lost connection error

本文地址:https://www.linuxprobe.com/flask-celery.html

阅读(79) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~
评论热议
请登录后评论。

登录 注册