python办公自动化,看完这一篇就够了!

最近参加了一个训练营,作为副教练,承担起训练营的运营工作。事不大,活不少,打卡记录、活动积分、奖励制度、评优方案、趋势对比,应有尽有……

开始认为 Excel 就足够应付,没想到第一项工作 —— 人员汇总,就把我难倒了,于是果断拎起 Python 这把大刀,披荆斩棘,利用业余时间,不到一周竟然打造出了一套运营管理系统,到底是如何做的呢?一起来看。

基础整理

数据是运营的基础,人员数据是基础数据,首先需要搞定人员信息。

训练营里的人员信息来自多个渠道,有通过 APP 报名的,有调查问卷收集的,还有人工录取的。

加上同一个可能在不太的地方用不一样的名字,以及不同渠道收集的数据完整性不同,所以整理基础数据工作耗费了将近两天时间。

最初用 Excel 的 VLookup 做数据合并,但灵活度小,限制大,放弃了。

最后使用 Python 处理各个渠道的数据,再录入了数据库,完成了数据整理工作。

这里重点说一下数据库。

使用数据库的好处是,方便数据整合、统计和更新。但是数据库一般比较重,维护部署都是问题,于是选用了文本数据库 SQLite[1] 作为数据库。

SQLite 很轻,不需要服务器,但功能与 MySQL[2] 类似。

使用起来安装 Python 的 SQLite 模块就可以了:

pip install sqlite3

创建数据库链接:

import sqlite3conn = sqlite3.connect('database.db')

其中 database.db 就是一个普通文件,如果没有,会自动创建一个。

有了链接,就可以执行数据库操作了,比如创建一个库表,插入数据:

# 创建一个游标cur = con.cursor()# 执行SQl 语句创建库表cur.execute('''CREATE TABLE stocks               (date text, trans text, symbol text, qty real, price real)''')# 向库表中插入数据cur.execute("INSERT INTO stocks VALUES ('2006-01-05','BUY','RHAT',100,35.14)")# 提交更改结果con.commit()# 关闭链接con.close()

因为需要频繁地操作数据库,所以将这些操作写成一个类:

class DBSqlite:    def __init__(self, db):        super().__init__()        self.db = db        self._conn = None    def __del__(self):        if self._conn:            self._conn.close()            def _get_conn(self):        if not self._conn:            self._conn = sqlite3.connect(self.db)            self._conn.row_factory = sqlite3.Row        return self._conn    def _query(self, sql):        conn = self._get_conn()        cur = conn.cursor()        rows = []        for row in cur.execute(sql):            rows.append(row)        cur.close()        return rows    def de(self, sql):        conn = self._get_conn()        cur = conn.cursor()        for s in sql.split(";"):            cur.execute(s)        conn.commit()        cur.close()        return True    def insert(self, table, rows):        conn = self._get_conn()        cur = conn.cursor()        cur.executemany("insert into %s values (%s)" % (table, ("?,"*len(rows[0]))[:-1]), rows)        conn.commit()        cur.close()        return True    def query(self, sql):        conn = self._get_conn()        cur = conn.cursor()        cur.execute(sql)        rows = cur.fetchall()        cur.close()        return rows
  • 封装了基本操作,de 为执行一个数据库操作,insert 为插入数据,query 执行一个查询
  • 需要注意的是 _get_conn 中的 self._conn.row_factory = sqlite3.Row 语句,作用时执行查询后,返回的结果会被转化为 sqlite.Row 对象,以便通过字段名来读取值,详细参加 row_factory[3]。

处理好基础数据,也有了数据库工具,就可以开始构建系统了。

结构设计

系统再小,也需要先从结构设计入手。

这个系统只是单机版(实际上可以做 Web 扩展,下篇展开),所以省去了网络和 API 设计,直接从库表设计开始。

首先分析业务。

训练营的运营数据包括,打卡数据,开单数据,组长日常工作,以及成员积分(通过积分规则,再自动核算部分展开)。

另外,成员有职务之分:普通成员 和 组长。规则是:组长可以作为普通成员,普通成员不能作为组长。

那么人员库表中,加入了职务,和组别,以便区分人员角色:

[图片上传失败…(image-d0fe1e-1649679796363)]

人员表

  • mixin_id 是用户注册App的id
  • std_id 为打卡系统的id
  • team 为小组名
  • title 为职务

然后设置一个活动类型表,并指定活动与职务的关系:

[图片上传失败…(image-43e240-1649679796363)]

活动表

  • type 为活动类型
  • value 为活动积分
  • tilte 为该活动对于的职务

接下来就是活动记录表了,由于已经定义了活动与职务的对于关系,所以,活动记录表中,只需记录活动类型即可:[图片上传失败…(image-9db191-1649679796363)]

  • mixin_id 为用户id,std_id 其实是没必要的,不过录入打卡记录时顺带记录了
  • date 为活动发生的日期
  • type 为活动内容

如果同一个人同一天同一个活动出现多次,就会有重复记录,那么如何区分是否真的重复呢?在 数据收集 中展开。

除了基本的数据结构,还有积分统计明细和积分合计表,这里不再赘述,会在核算部分提及。

数据收集

现在数据框架有了,数据从何而来呢?

这个训练营的数据主要来自两个地方,第一是打卡数据,第二是日常记录数据。

打卡数据由鲸打卡提供,可以在浏览器中查看,并且提供了导出打卡 Excel 的功能。

不过操作比较麻烦:首先登录后台(用微信扫码登录),再先选择导出条件(一般为时间区间),下载Excel,然后打开 Excel,才能复制其中的打卡信息,存入文本文件,最后才能执行脚本处理。

好问题:
为什么不直接处理 Excel 呢?

  1. 因为Excel 处理需要安装额外库,也没有文本文件处理方便。
  2. 另外未来考虑做成 Web 系统,所以没有做 Excel 的进一步扩展。

不选择导出,就得用程序请鲸鱼打卡上抓取了。

所以就研究了下打开管理后台的请求,分析了一下,请求中有个 cookie 值是关键,于是,复制请求,转化为 Python 代码,详细描述见 自动预约程序

收集到的数据是 JSON 格式的,将其转化为 List,插入数据库:

def record_check(rows):    dbrows = []    for row in rows:        u = get_user(std_id=int(row[0]))        if u:            if row[2] != "×":                dbrows.append((u['mixin_id'], u['std_id'], row[1], "打卡", 1, row[2], None))        else:            print("没有找到用户:", row)    if len(dbrows) > 0:        db.insert("tprj_activity", dbrows)    return dbrows
  • record_check 方法是用来记录打开记录的,参数 rows 是从打开后台抓取的数据
  • get_user 是可以根据打卡用户的 id,从用户表中找到用户记录,然后结合打卡记录,补全打卡记录
  • db 是 上面提到的 DBSqlite 的一个实例,调用其 insert 方法将数据插入数据库

日常记录,需要根据训练营中的实际情况做记录,比如成员开单,组长轮值等,记录在 Excel 中比较方便。每日统计一次,所以我直接将数据复制处理,也存放到文本文件中,用程序解析成记录行,插入库表,展示一下解析方法:

def merge_activity(datafilename):    rows = []    with open(datafilename, 'r', encoding='utf-8') as check_f:        data = {}        for line in check_f:            linedata = line[:-1].split('t')            date = linedata[0].replace("/","-")            userinfo = linedata[1].split("/")            team = userinfo[0]            name, mixin_id, std_id = userinfo[1].split('-')            atype = linedata[2]            rows.append((mixin_id, date, atype))    ...

可以看到,通过读入文本行,再拆分成对于字段,合成活动记录。

这样两个数据收集工作就做好了,这里还需要解决一个问题 —— 避免数据重复。

容易想到的方法是,为数据设置联合主键,然后对数据做增量式更新。

但是这样做需要做更多的工作,而且还要很好的测试。

从业务上分析可知:活动数据并不多,学员个数不过一百。

那么不妨每次重算!?

即每次执行时,先库表数据删除,然后重新插入一遍。

虽然效率了不高,也算是用框架换时间吧,换的不出机器时间,而是我的工作时间哈哈。

自动核算

数据统计收集完毕,就需要根据活动积分,计算每个人的积分明细合计。

既然我们选用了数据库,就直接用 Sql 语句搞定吧。

相对程序处理来说,Sql 更容易做统计类的事情。

统计普通成员积分明细的语句如下:

INSERT INTO tprj_user_score_detail SELECT a.mixin_id, sum(s.value), u.team, '成员', a.date FROM    tprj_activity a    LEFT JOIN tprj_user u ON a.mixin_id = u.mixin_id    LEFT JOIN tbas_score s ON a.type = s.type WHERE s.title = '成员' GROUP BY    a.mixin_id,    u.team,    u.title,    a.date 
  • 查询所有职务属于 成员 的活动积分,插入成员积分明细表
  • tprj_activity 为活动记录表,与 tprj_user 用户表链接,然后再链接上活动表 tbas_score,作用是对活动类做约束
  • where 条件中,限制活动类型必须为 成员 活动
  • sum(s.value) 为一个成员的当日积分合计,日期 体现在 group by 的条件中了

类似的需要写很多统计语句,比如组长的,小组的,以及各自的积分合计,不再逐个展示了。

由于 sql 语句较多,为了便于管理,将 sql 语句整理到 sql.py 文件中,在导入主程序代码,最后调用 DBSqlite 工具方法执行,例如:

import sql...db.de(sql.user_score_detail)...

是不优雅多了?

打卡率是通过统计活动记录计算的:

def cal_check_rate():    ## 计算打卡率    team_member = {}    for r in db.query(sql.team_member_count):        team_member[r['team']] = r['mcount']    dbrows = []    for r in db.query(sql.team_check_count):        dbrows.append((r['team'], r['date'], round((r['checkcount']/team_member[r['team']])*100)))    if len(dbrows) > 0:        db.insert("tprj_team_check_rate", dbrows)    return dbrows
  • team_member_count 语句语句获取各组的人数,因为可能有人没有注册打卡。只通过打卡记录获取组内人数,不严谨。
  • team_check_count 语句是按组和日期分类核算出的组打卡数
  • 打卡率公式为:(打卡个数/组内人数) * 100%
  • 将计算好的打卡率,按日期存入 dbrows,最后插入数据库

这里还需要注意的是重复数据问题,处理方法简单粗暴:

全部清除重算

其他数据处理也类似。

报表导出

数据处理做好了,要让发挥数据的作用,就需要制作成报表,才能让其他人利用。

本着一切从简的原则(主要是需要尽快提供结果),选择也 Excel 呈现统计结果。

要输出哪些内容呢?

打卡率、成员积分、组排名等,是需要的。

对于打卡率,需要按组分类,这样就有读出小组成员的作用,如何抽取数据呢?

写个 Sql 就好了, 获取打卡率的语句 check_rate_show 如下:

SELECT 
    date,
    max(case when team ='1组' then rate else 0 end) as '1组',
    max(case when team ='2组' then rate else 0 end) as '2组',
    max(case when team ='3组' then rate else 0 end) as '3组',
    max(case when team ='4组' then rate else 0 end) as '4组',
    max(case when team ='5组' then rate else 0 end) as '5组'
FROM tprj_team_check_rate
GROUP BY date
  • tprj_team_check_rate 是用于按组和日期存放打卡率
  • select 语句中,使用了行转列的技巧,使得结果为 第一列为日期,后面列为各个组,这样是为了绘制成图表方便

其实结果可以导入 Excel ,生成报表,更方便一些,但是我没这样做,因为:

  1. 操作 Excel 比较费劲,调试工作量大
  2. 我有更大的打算,即最终实现为在线版的,所以花费大量时间不值得

因此我直接将数据输出到文本文件里了。

例如对打卡率的输出是这样的:

def show_check_rate():
    data = db.qj(sql.check_rate_show)
    result = []
    # 处理表头
    line = 't'.join(data[0].keys()) + "n"
    result.append(line)

    # 生成表头
    for d in data:
        row = []
        for k in d.keys():
            if k != 'date':
                row.append(str(d[k]) + "%")
            else:
                row.append(d[k])
        line = 't'.join(row) + "n"
        result.append(line)
    result.append('n')
    return result
  • check_rate_show 执行 Sql 获得数据
  • 从数据中获取表头信息,做成一行记录,请注意字段的分隔为 tab 符,这样是为了方便直接粘贴到 Excel 中
  • 取出数据中的每一行,做成表体数据行
  • 最后再加入一个回车,这是为了和其他的输出分隔开

方法执行的结果,写入文本文件:

filename = "result_%s.txt" % today.strftime("%Y-%m-%d %H_%M_%S")
with open(filename, 'w', encoding='utf-8') as r:
    r.writelines(show_check_rate()) # 打卡率
    r.writelines(show_member_score()) # 成员积分
    ...
  • filename 为要写入的文本文件,这里利用当前时间作为文件名,是为了不重复
  • 打开文件,用 writelines 方法将返回的行写入文件中
  • 这里还可以调用其他产生输出方法,将结果写入文件

最后,文件中数据如下:

date    1组  2组  3组  4组  5组
2021-08-01  65% 90% 79% 85% 72%
2021-08-02  75% 90% 79% 85% 67%
2021-08-03  55% 90% 84% 75% 67%
2021-08-04  60% 95% 74% 75% 61%

复制到 Excel 的图表数据中就会形成打卡率图表:

打卡率图表

日常维护

运营工作不是一成不变的,比如为了激励成员对提出的问题进行整理,新增了一个积分点叫 解答整理

就得调整积分项,因为之前已经将积分项用库表存储了,现在只需要增加一条记录,并指明该积分适用于成员角色就可以了。

另外,在 活动详情 报表中,需要按活动名称记录每个人的数据,也是个行转列的操作,但麻烦的是活动项是会变的。

于是先将获取项动态获取到,然后合成为行转列的语句,再和查询语句合并为完整的 Sql 语句,这样活动再有调整时,只管添加数据项就好了,代码如下:

score_type_temp = "max(case when type ='{atype}' then num else 0 end) as '{atype}'"types = db.query("select type, value from tbas_score where title='%s'" % title)temps = []for t in types:    temps.append(sql.score_type_temp.format(atype=t['type']))allsql = sql.member_score.format(",n".join(temps))

最后,将各部分的代码集成起来,放在一个 main 函数中,每天执行一次,将输出的文本文件中的数据复制到 Excel 中,就完成当日报表了,整个操作耗时不到十分钟,还算满意。

总结

促使我这么做的是,不想在机械的事情上耗费时间,所以会尽可能的将能自动处理的,让程序处理。

虽然让一切程序化是一个理想,在实现的道路上会有很多阻碍,所以还需要找到落地的平衡点,需要接受不完美,需要已实用为导向 —— 先实现,再完美

下期,在实现基本功能的基础上,我们聊聊如何将这个平台 Web 化。

© 版权声明
THE END
喜欢就支持一下吧
点赞7 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容