性能监控平台搭建 -- 集成Locust性能数据
优采云 发布时间: 2020-08-21 15:04性能监控平台搭建 -- 集成Locust性能数据
无意中发觉了一个巨牛的人工智能教程,忍不住分享一下给你们。教程除了是零基础,通俗易懂,而且十分诙谐诙谐,像看小说一样!觉得很牛了,所以分享给你们。点这儿可以跳转到教程。
文章目录
原文链接
之前的几篇关于性能监控平台搭建的文章,分别介绍了性能测试中的资源数据采集、存储及展示。今天一起来看下怎样完成Locust性能数据的采集。
这是之前介绍过的性能监控平台的整体构架图,想要了解其它部份的搭建,可以查看相关文章《Telegraf安装与简易使用指南》、《InfluxDB安装与简易使用指南》、《Grafana安装与简易使用指南》
因为我们早已完成了资源数据的采集,以及监控数据的储存与展示,剩下的就是采集性能数据了。规划中我们须要支持采集JMeter和Locust工具的性能数据,今天先讲解怎样采集Locust的性能数据。
问题概述
如果你使用过Locust,那么你一定晓得Locust本身自带一个WEB服务,它提供了性能测试过程中的性能数据监控,并且也提供了一个图形的界面支持实时监控,完事了还可以下载csv格式的性能测试数据。
既然Locust早已有了性能数据的监控功能,为哈还要接入到性能监控平台呢?因为Locust里的数据没有主动持久化,一旦刷新就没有了;也不会手动保存历史数据;不能对数据进行多样化展示,不能在同一个平台中查看全部的性能数据。
为此我们要解决的就是把Locust性能工具中的性能数据实时的获取到并储存到Influxdb中,这样就完美的解决了Locust性能数据集成问题,让监控平台可以无缝的支持Locust工具。
获取Locust性能数据插口
既然要采集性能测试数据,那么首先要考虑的就是怎么获取性能测试数据?是更改源码?还是开发插件?这些统统不要!因为Locust本身就早已有了性能数据监控服务,通过抓取Locust的WEB服务页面恳求,很方便的就得到了Locust的性能监控数据。比如:
curl http://localhost:8089/stats/requests
该URL会返回当前性能测试到目前为止的性能测试数据的总结信息,所以那些我们须要的性能数据基本上Locust早已为我们打包好了,我们之前恳求这个url就可以实时的获取到。
定时采集性能数据
数据获取的方法早已晓得了,接下来考虑的就是在什么时候获取数据的问题。最简单粗鲁的形式就是写一个定时任务去恳求该URL,获取数据后直接储存到Influxdb即可。代码如下:
def get_locust_stats_by_web_api():
print("get_locust_stats")
try:
start_url = f'http://localhost:8089/stats/requests'
print(start_url)
return requests.get(start_url).json()
except Exception as e:
print(e)
而这样做的弊病则是定时任务与性能测试启停的一致性须要人为的控制,用户友好性不够。我们希望的是性能测试一开始它就手动开始采集性能数据,性能测试一结束它就停止采集性能数据,要做到对目前的性能测试操作尽量无侵入。
性能数据采集一致性
为了解决性能数据采集与性能测试之间的一致性问题,我们须要把代码集成到Locust性能测试脚本中,让它跟脚本绑定,这样一旦开始执行性能测试,就会触发性能数据采集的定时任务,从根本上解决了一致性问题。
no-web模式下获取性能数据
前面我们获取Locust性能测试数据时,是通过/stats/requests插口获取到的。这个插口是基于WEB模式下,一旦我们选择以no-web的方法启动Locust,那么这个插口才会失效了。
为了兼容no-web模式下也能正常采集到Locust的性能数据,可以直接把/stats/requests插口生成性能测试数据的代码直接COPY过来即可,所以获取Locust性能测试数据的方式须要改写成这样:
def get_locust_stats():
stats = []
for s in chain(sort_stats(runners.locust_runner.request_stats), [runners.locust_runner.stats.total]):
stats.append({
"method": s.method,
"name": s.name,
"num_requests": s.num_requests,
"num_failures": s.num_failures,
"avg_response_time": s.avg_response_time,
"min_response_time": s.min_response_time or 0,
"max_response_time": s.max_response_time,
"current_rps": s.current_rps,
"median_response_time": s.median_response_time,
"avg_content_length": s.avg_content_length,
})
errors = [e.to_dict() for e in six.itervalues(runners.locust_runner.errors)]
# Truncate the total number of stats and errors displayed since a large number of rows will cause the app
# to render extremely slowly. Aggregate stats should be preserved.
report = {"stats": stats[:500], "errors": errors[:500]}
if stats:
report["total_rps"] = stats[len(stats) - 1]["current_rps"]
report["fail_ratio"] = runners.locust_runner.stats.total.fail_ratio
report[
"current_response_time_percentile_95"] = runners.locust_runner.stats.total.get_current_response_time_percentile(
0.95)
report[
"current_response_time_percentile_50"] = runners.locust_runner.stats.total.get_current_response_time_percentile(
0.5)
is_distributed = isinstance(runners.locust_runner, MasterLocustRunner)
if is_distributed:
slaves = []
for slave in runners.locust_runner.clients.values():
slaves.append({"id": slave.id, "state": slave.state, "user_count": slave.user_count})
report["slaves"] = slaves
report["state"] = runners.locust_runner.state
report["user_count"] = runners.locust_runner.user_count
return report
slave模式下不进行数据采集
同样的Locust还有分布式模式,一旦采用该模式以后Locust性能脚本会在master和各slave节点就会执行,但是很明显我们不希望接收到多次重复的性能采集数据,所以须要保证只有在master上的性能脚本才能进行性能数据采集。
def monitor(project_name):
print("start monitoring")
slave = isinstance(runners.locust_runner, SlaveLocustRunner)
if slave: # 判断是否为slave
print('is slave, will not rerun')
return
try:
rep = get_locust_stats()
if rep['state'] == 'running':
host = get_locust_host()
save_to_db(project_name, host, rep)
print(f'is_slave: {slave}, host: {host}, project_name: {project_name}')
else:
print('it is not running now')
except Exception as e:
print(e)
timer = threading.Timer(interval, monitor, args=[project_name]) # 定时任务
timer.start()
封装
当然,我们也不希望把这么多的性能数据采集的代码直接写在Locust的性能测试脚本中,即不美观也不容易管理。所以须要把这种采集数据的代码统一封装到一个独立文件中,并对外提供一个调用入口,只要简单引入即可。调用代码如下: