工作日志方面,我比较认同阿里的模式,之前专门写过一遍文章,关于如何写工作日志的。基本内容如下:
WHY:为什么写?
这是要澄清的最重要的一点。员工不会长时间干一件他们不知道为什么干的事情。如果你是管理者,或者希冀成为管理者,那么首先要懂得,说why的能力非常重要,是管理力的重要体现。同时,对于员工来说,写好日报是做好事前管理的有力抓手,也是一个人成长的开始,是一步一个台阶前行的过程。每天通过总结经验、归纳思考、并制定出次日工作计划,在日清日毕的过程中得以不断提升。
HOW:如何写?
一份日报看似简单,但是真正写好也未必容易。起码需要四个方面的保障措施:
(1)角色保障,也就是要有日报的负责人,可以设置专人负责本部门员工的日报及时收集和数据汇总,进行过程中的及时跟进和管控。
(2)制度保障,凡是一件事都要有要求有标准,只有这样才能知道对不对、合不合格,比如,回到前面的小案例,如果晚发了怎么办?写的不认真怎么办? 写的好的标准是什么,如何表扬等等。
(3)激励保障,要及时回复、点评,对于做的好的要随时给予表扬、点赞,做的不好的要进行处罚,做到奖罚分明,强调正向激励,且有即时性。
(4)结果保障,做任何工作都是为结果服务的,写日志是为了过程监控,最终是为了达成结果,要通过日志发现问题,解决问题,树立标杆。要做到“一米宽一百米深,一把钢尺量到底”。
WHAT:写什么?
我们知道了为什么去写,也知道了如何去写,那么到底该写些什么呢?在此,和大家分享具体的写法,主要包括如下内容:
(1)今天工作完成情况:包括今天完成的工作、今天未完成的工作;
(2)今天工作分析思考:包括完成的方法沉淀、未完成的原因分析;
(3)明天工作目标规划:包括明天的工作目标、明天的工作规划。
下面是一封基础的日报内容,供参考:
在这个基础上,可以根据具体行业、公司的特点进行调整或补充,时期更匹配经营的需要。
最后,一定会有人问我,写好工作日报业绩或工作结果一定就好了吗?
答案当然是:不一定。
也一定会有人质疑:有的员工业绩很好,难道还非要他写日报吗?
答案当时是:需要。
作为员工,一定会有人说:我把工作做好、业绩达成不就行了?为何还要搞那么多虚的东西,增加我的工作负担呢?
答案是:不管你是否认同,坚持365天试试,也许你的收获会大到令自己大吃一惊。
作为管理者,我想回到开始那句话:
团队的执行力就是管理者的执行力;员工的行为底线就是管理者的管理底线。
不要把目光聚焦到一个短的时间点上,要看到一个更长的时间轴,可能是5年、10年,甚至更多。你要相信:一切都有因果。
原文链接:https://www.toutiao.com/i6804794195211977224/
欢迎关注@Amanda进阶志,了解更有相关内容哦~
程序员每天写日志,主要是写什么?
!
通常情况下有两件事情常常被程序员忽略,一件事情是写日志,另一件事情是写日报,日志是服务于工作流程的,而日报则是对一天工作内容的总结。日志和日报(周报)共同点都是给人看的,日志往往是给自己或业务流程上的同事看的,而日报(周报)往往是给团队负责人看的。
日志最主要的功能是记录程序的执行流程。日志是对程序执行过程的记录,包括登录角色、触发事件的流程、业务处理的流程、关键事件、数据访问、网络访问、权限获取、对应日期、执行是否成功、返回值等等内容,可以说日志是最真实的记录软件执行流程的文档。
日志可以说是程序的健康监控表。通过日志能够快速发现问题的根源,能够对程序的执行流程进行追踪,同时还可以根据日志进行数据的统计和分析,这其中就包括性能分析等重要的内容。另外,有的程序还要根据相关部门的要求进行一些日志记录,这些内容往往涉及到一些比较敏感的数据资源,比如涉及到个人隐私等数据,像住宿记录、就医记录、金融记录等等。
看日志的人比较多,所以要注意措辞。看日志的人不仅包括开发人员,还包括产品经理、运维人员、测试人员等,所以日志一定要尽量的详细和可靠,输出的内容要清晰明了,理论上是越详细越好,但是也有一个度要把握好,因为日志记录往往要进行IO输出,这也会占用一部分系统资源,有的时候日志记录会占用较大的存储空间,G以上的日志记录也是比较常见的。另外,日志记录往往都要根据业务类型保持一段时间,所以日志记录比较大也是比较普遍的事情。
写好日志是程序员职业素养的一个体现,好的日志也会为程序后期的维护奠定一个好的基础,所以作为开发人员来说,一定要重视日志。
我从事软件开发工作多年,目前也在指导计算机专业的研究生(大数据、AI方向),对计算机感兴趣的朋友可以关注我。
如果有计算机方面的问题,或者读研方面的问题,都可以咨询我,谢谢!
哪些Python库让你相见恨晚?
python中令人拍案叫绝的库实在太多了。python本身就是万能胶水,众多强大的库/模块正是它的优势。
这里仅仅简单举些例,排名不分先后。文末附python库大全。
1、爬虫神器scrapy框架。配上scrapy-redis组件,轻松开发一个分布式爬虫。言语无法表达我的景仰。
2、matplotlib绘图库,绘图神器。
3. you-get下载神器。国内外主流如的60多个网站的视频都支持下载。下图勾分别为支持视频、图像、音频。
使用方法也是超简单,以下是个人下载哔哩哔哩李宏毅教授的视频。基本满速下载。
4. 顺便说说另一个下载利器wget,只要给下载地址,就能下载。
5. jieba 中文分词工具
6.pip 相信用过python的人都知道pip install。
7.Django框架,Python 界最流行的 web 框架。
8.PIL,图像处理模块。个人的《网络爬虫之简单验证码识别》就有用到此模块。
9. logging ,日志功能模块,使用超简单超方便。
10. keras,以 tensorflow 或者 theano 为后端的深度学习封装库,快速上手神经网络。
11. plotly,协同 Python 和 matplotlib 工作的 web 绘图库
真的太多了,具体还是看python资源大全
1.英文版。
https://github.com/vinta/awesome-python
2.对应中文翻译。
https://github.com/jobbole/awesome-python-cn
如果对您有帮助,请您点赞支持,谢谢。
如何优化日志系统?
答:此题邀请xinghua来解答,他总结了实际项目中对elk系统的一些调优的经验,与你分享百亿级elk日志系统优化纪实。
导语:elk是搭建实时日志分析系统的通用解决方案,通过elk可以方便地收集、搜索日志。但随着日志量的增加,根据实际应用场景的优化调整能够更充分的利用系统资源。本文主要记录我们项目中对elk系统的一些调优。
随着王者人生相关业务的快速发展,我们每天日志量很快超过了20亿条,存储超过2TB,elk日志系统的压力逐渐增加,日志系统的调整优化已经迫在眉睫。
1、日志系统架构
(elk日志系统架构)
FileBeat 是一个轻量级的日志收集处理工具(Agent)。
Elasticsearch 是个开源分布式搜索引擎,提供搜集、分析、存储数据三大功能。
Logstash 主要是用来日志的搜集、分析、过滤日志的工具,支持大量的数据获取方式。
Kibana 可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以帮助汇总、分析和搜索重要数据日志。
2、优化日志系统
以下主要介绍 filebeat、logstash、elasticsearch 的一些优化调整
2.1 filebeat优化
(1) 负载均衡
问题 :当日志量非常大(单机超过每天超100GB)的模块上报日志时,日志落地延时大,要等一段时间才能在es里查出来。
原因:
当filebeat.yml 配置文件里hosts配置了多个Logstash主机,并且loadbalance设置为true,则输出插件会将已发布的事件负载平衡到所有Logstash主机上。 如果设置为false,则输出插件仅将所有事件发送到一个主机(随机确定),如果所选主机无响应,则会切换到另一个主机。 默认值为false。
方案:配置多个hosts,配置loadbalance为true
(修改配置前只有一个连接)
(负载均衡优化后多个连接)
效果
单机filebeat吞吐量变大
(多连接优化后单机出流量变大)
(es创建索引的速度变大)
(2)上报采集 源服务器ip
问题:不是所有日志都会打印本机IP,比如异常错误日志往往无法打印服务器IP。这部分日志收集之后无法区分来源,难以定位问题。
原因:filebeat目前不支持上报本机ip
方案:添加字段client_ip,重启脚本动态修改client_ip为本机IP
filebeat.yml 部分配置
restart_filebeat.sh示例
效果
异常日志也能定位服务器IP
2.2logstash优化
(1)日志清洗、格式化
问题:采集的原始日志不规范,需要过滤,格式化
方案:利用logstash进行清理
logstash.conf 示例
效果
以删掉message字段为例看效果
(删掉message前冗余一份完整原始日志)
效果
平均每条日志存储空间从1.2KB 下降到 0.84KB,减少了近30%的存储
(每天日志统计)
2.3elasticsearch优化
(1)优化模板_template配置
问题:随着王者荣耀wifi特权上线,日志量激增,默认配置下磁盘达到瓶颈。
原因:默认配置满足不了项目需要
number_of_shards 是数据分片数,默认为5
当es集群节点超过分片数时,不能充分利用所有节点
number_of_replicas 是数据备份数,默认是1
方案:调整模板配置
number_of_shards改为72
number_of_replicas改为0
效果
每天日志的72个分片均匀分部在36个节点
(每个节点分配了2个分片)
备份从 1 改成了 0,减少了一半的写入
(io使用率降低)
3.总结
通过以上调整,目前elk日志系统可以支持每天超过20亿条,2.2 TB的日志,峰值创建索引超6万QPS
后续优化:不同配置(磁盘空间)机器按权重分配,充分利用资源