4.6 KiB
ivfflat_test_report_cn
概述
本文描述了ivfflat索引在milvus单机部署方式下的测试结果。
测试目标
参数不同情况下的查询时间和召回率。
测试方法
软硬件环境
操作系统:Ubuntu 18.04
CPU:Intel(R) Xeon(R) Platinum 8163 CPU @ 2.50GHz
GPU0:GeForce RTX 2080Ti 11GB
GPU1:GeForce RTX 2080Ti 11GB
GPU2:GeForce RTX 2080Ti 11GB
GPU3:GeForce RTX 2080Ti 11GB
内存:768GB
Docker版本:19.03
NVIDIA Driver版本:430.50
Milvus版本:0.5.3
SDK接口:Python 3.6.8
pymilvus版本:0.2.5
数据模型
本测试中用到的主要数据:
- 数据来源:sift1b
- 数据类型:hdf5
关于该数据集的详细信息请参考 : http://corpus-texmex.irisa.fr/ 。
测试指标
-
Query Elapsed Time:数据库查询所有向量的时间(以秒计)。影响Query Elapsed Time的变量:
- nq (被查询向量的数量)
备注:在向量查询测试中,我们会测试下面参数不同的取值来观察结果:
被查询向量的数量nq将按照 [1, 5, 10, 100, 200, 400, 600, 800, 1000]的数量分组。
-
Recall: 实际返回的正确结果占总数之比。影响Recall的变量:
- nq (被查询向量的数量)
- topk (单条查询中最相似的K个结果)
备注:在向量准确性测试中,我们会测试下面参数不同的取值来观察结果:
被查询向量的数量nq将按照 [50, 200, 400, 600, 800, 1000]的数量分组,
单条查询中最相似的K个结果topk将按照[1, 10, 100]的数量分组。
测试报告
测试环境
数据集:sift1b-1,000,000,000向量,128维
表格属性:
- nlist: 16384
- metric_type: L2
查询设置:
- nprobe: 32
Milvus设置:
- cpu_cache_capacity: 600
- gpu_cache_capacity: 6
- use_blas_threshold: 2100
Milvus设置的详细定义可以参考 https://milvus.io/docs/en/reference/milvus_config/ 。
测试方法
通过一次仅改变一个参数的值,测试查询向量时间和召回率。
- 查询后是否重启Milvus:否
性能测试
数据查询
测试结果
Query Elapsed Time
topk : 100
search_resources: cpu, gpu0, gpu1, gpu2, gpu3
nq/topk | topk=100 |
---|---|
nq=1 | 0.649 |
nq=5 | 0.911 |
nq=10 | 1.393 |
nq=100 | 2.189 |
nq=200 | 6.134 |
nq=400 | 9.480 |
nq=600 | 16.616 |
nq=800 | 22.225 |
nq=1000 | 25.901 |
当nq为1000时,在CPU模式下查询一条128维向量需要耗时约26毫秒。
topk : 100
search_resources: gpu0, gpu1, gpu2, gpu3
nq/topk | topk=100 |
---|---|
nq=1 | 14.348 |
nq=5 | 14.326 |
nq=10 | 14.387 |
nq=100 | 14.684 |
nq=200 | 14.665 |
nq=400 | 14.750 |
nq=600 | 15.009 |
nq=800 | 15.350 |
nq=1000 | 15.336 |
当nq为1000时,在GPU模式下查询一条128维向量需要耗时约15毫秒。
总结
在CPU模式下查询耗时随nq的增长快速增大,而在GPU模式下查询耗时的增大则缓慢许多。当nq较小时,CPU模式比GPU模式耗时更少。但当nq足够大时,GPU模式则更具有优势。
在GPU模式下的查询耗时由两部分组成:(1)索引从CPU到GPU的拷贝时间;(2)所有分桶的查询时间。当nq小于500时,索引从CPU到GPU 的拷贝时间无法被有效均摊,此时CPU模式时一个更优的选择;当nq大于500时,选择GPU模式更合理。
和CPU相比,GPU具有更多的核数和更强的算力。当nq较大时,GPU在计算上的优势能被更好地被体现。
召回率测试
测试结果
topk = 1 : recall - recall@1
topk = 10 : recall - recall@10
topk = 100 : recall - recall@100
我们利用sift1b数据集中的ground_truth来计算查询结果的召回率。
Recall of CPU Mode
search_resources: cpu, gpu0, gpu1, gpu2, gpu3
nq/topk | topk=1 | topk=10 | topk=100 |
---|---|---|---|
nq=50 | 0.960 | 0.952 | 0.936 |
nq=200 | 0.975 | 0.964 | 0.939 |
nq=400 | 0.983 | 0.967 | 0.937 |
nq=600 | 0.970 | 0.964 | 0.939 |
nq=800 | 0.970 | 0.960 | 0.939 |
nq=1000 | 0.976 | 0.961 | 0.941 |
Recall of GPU Mode
search_resources: gpu0, gpu1, gpu2, gpu3
nq/topk | topk=1 | topk=10 | topk=100 |
---|---|---|---|
nq=50 | 0.980 | 0.952 | 0.946 |
nq=200 | 0.970 | 0.962 | 0.934 |
nq=400 | 0.975 | 0.953 | 0.939 |
nq=600 | 0.970 | 0.957 | 0.939 |
nq=800 | 0.981 | 0.963 | 0.941 |
nq=1000 | 0.979 | 0.964 | 0.938 |
总结
随着nq的增大,召回率逐渐稳定至93%以上。