Flask使用Pyecharts在单个页面展示多个图表

在Flask页面展示echarts,主要有两种方法: 方法1、原生echarts方法 自己在前端引入echarts.js文件、自己创建div、自己初始化echarts对象、自己从官网复制并且配置图表、自己给echarts对象设置配置项实现绘制,这种方法的缺点是配置项都是js的形式比较繁琐,对于后端开发人员来说有点过于参与前端js部分的配置开发; 这种方式参照echarts官网的方式,其实跟flas … 继续阅读Flask使用Pyecharts在单个页面展示多个图表

Java和Python使用Grpc访问Tensorflow的Serving代码

发现网上大量的代码都是mnist,我自己反正不是搞图像处理的,所以这个例子我怎么都不想搞; wide&deep这种,包含各种特征的模型,才是我的需要,iris也是从文本训练模型,所以非常简单; 本文给出Python和Java访问Tensorflow的Serving代码。 Java版本使用Grpc访问Tensorflow的Serving代码 [crayon-5d58c43ebca641678 … 继续阅读Java和Python使用Grpc访问Tensorflow的Serving代码

Flask怎样从其他Python文件导入app.route视图函数

用Blueprint这个东西实现; 主文件: flask_main.py

引入的一个Module的文件,这个文件中写了视图函数 flask_moudle2.py

界面上访问第一个函数和第二个函数都返回正常 贴一下官网蓝图的解释: Flask 用 蓝图(blueprin … 继续阅读Flask怎样从其他Python文件导入app.route视图函数

tensorflow怎样输入具有多个值的特征

大部分的特征都是单个值的,比如性别、年龄、职业、地理位置、时间、地点、分类、点击率等等; 但是还有一些是多个值的列表,比如最近点击ID列表、个人偏好的ID列表、物品分词列表等等,对于这种特征该怎么处理呢? 参考文章:https://stackoverflow.com/questions/48697799/tensorflow-feature-column-for-variable-list-of- … 继续阅读tensorflow怎样输入具有多个值的特征

Python3用scan和delete命令批量清理redis数据

有几个知识点: scan命令的第一个入参从0开始代表从头扫描 scan命令的返回是(pos, [])元组,第一个pos可以作为下次扫描的入参pos,第二个值就是扫描到的KEY scan命令的第三个参数,是本次扫描的KEY数目,比如传递10万个,但是返回的LIST可能是0,因为有0个匹配 redis的delete命令传递的是array … 继续阅读Python3用scan和delete命令批量清理redis数据

PyCharm开发PySpark程序的配置和实例

对于PyCharm,需要作如下设置: 1、安装pyspark,它会自动安装py4j 2、在edit configuration中,add content root,选择spark下载包的python/pyspark/lib下的pyspark.zip和py4j.zip两个包; 代码实例:

  输入数据为: [crayon-5 … 继续阅读PyCharm开发PySpark程序的配置和实例

Python高级编程技巧

ipython的使用 地址:https://ipython.org/install.html 简单的安装方法:pip install ipython 一些方便的使用方法: 输入要查看的对象,然后输入一个问号可以查看API,输入两个问号可以查看代码 可以直接调用shell命令,在前面带上!即可 按Tab可以自动语法补全 最近的命令输出结果,可以从_、__、___三个变量获得 %hist或者%hist … 继续阅读Python高级编程技巧

怎样借助Python爬虫给宝宝起个好名字

2019-03-31更新: 代码的python3简化版本: https://github.com/peiss/chinese-name-score/tree/master/chinese-name-score/python3 代码的视频讲解(我的付费视频课程中的一节): https://www.iqiyi.com/v_19rsj1yvy8.html 每个人一生中都会遇到一件事情,在事情出现之前不会 … 继续阅读怎样借助Python爬虫给宝宝起个好名字

数据处理中提升性能的方法-引入并发但是避免同步

背景 只要存在数据库,就会有后台批量处理数据的需求,比如数据表备份、定期清理、数据替换、数据迁移,对于批量处理来说,往往会涉及大量的查询、过滤、归类、聚合计算,在批量脚本中直接查询数据库往往性能太低,甚至会因为一个大型的SQL导致数据库锁表出现线上事故,因此一般采用先导出到文件,在文件上计算然后再导入,比如: 1、使用mysql -e “select * from table&#822 … 继续阅读数据处理中提升性能的方法-引入并发但是避免同步