你们做核酸检测了吗?一个算法让核酸检测成本降低到千分之一?

栏目:网络教育  时间:2023-02-09
手机版

  来源:麦叔编程

  作者:麦叔

  1.10人一组混检

  到了过年的时候了,你要回老家过年吗?如果回老家过年,需要做核算检测。我也正在犹豫中。你们做了吗?

  核酸检测本身是一个比较费时,费力,费钱的复杂过程,所以现在低风险地区都是采用的10人一组混合检验的。

  具体来说就是将采集自10个人的10支拭子样本集合于1个采集管中进行核酸检测。

  混检筛查中一旦发现阳性或弱阳性,将会立即进行追溯,通知相关部门对该混采管的10个受试者暂时单独隔离,并重新采集单管拭子进行复核,再确定这10个人当中到底哪一个是阳性。

  如果检测结果是阴性,意味着这10个样本全是阴性,混检的10个人都是安全的。

  看到这个过程后,作为程序员的我禁不住拍了一下自己的大腿,这不就是个很简单算法嘛!但是这个小小的算法把检验的成本降低了接近90%,把检验的速度提高了近10倍!算法真是太奇妙了!

  顺着这个思路,有没有更好的算法,进一步加快这个过程呢?理论上来说,如果用二分法,可以把14亿次检测减少到大概23万次左右。而现在10比1混合检验的次数大约是1.4亿次。

  关于算法,本文下面再讨论。咱们先说一个大家关心的问题。

  2.混检是否安全

  把10个人的样本混在一起,咋一听觉得很不靠谱,实际上还是很靠谱的。但是会不会出现检验不准的情况呢?确实存在一些潜在问题。

  以下专业分析来自知乎,作者:返朴https://www.zhihu.com/question/404866690/answer/1326422005

  假阴性率会增加,准确度下降。举两个假设的情况给大家解释为什么假阴性率会增加:

  情况1:假设使用的是饱受争议的美国CDC的核酸RT-PCR检测试剂盒。这个试剂盒一共测三个新冠基因片段,其中两个是新冠特异的基因片段,第三个是所有类似于SARS的冠状病毒都有的基因片段。除此以外,还包括一个控制探针 (control probe)针对人的RNase P基因。这个探针的目的是用来保障取样足够和RNA提纯过程没有出错。

  如果取样不够,或者RNA纯化出错导致RNA降解,探针就读不出数值,检测结果就是“无效(invalid)”,还需要重新再测。

  如果有位阳性感染者,在鼻咽拭子取样的时候,样本量取得不够。如果对这个样本用美国CDC的核酸试剂盒进行单独的核酸检测,虽然新冠基因是阴性,RNase P控制探针的结果也是阴性,最终结果就显示“无效(invalid)”,还需要重新再测。

  然而,如果把这个人的样本和其他4个人混合在一起,进行混合核酸测试——其他4位都是核酸阴性,且取到了足够的样本。这时,用美国CDC的核酸试剂盒去检测5个人的混合样本,测出新冠基因是阴性犯罪片,RNase P的控制探针是阳性(表明样本取样提纯没有出错),因此得出结论:这5位都是核酸阴性。那位阳性感染者得到的就是一个“假阴性”结果。

  情况2:不同核酸检测的设计不同,导致试剂盒的敏感度和特异性也不同。假设所用核酸试剂盒的敏感度是500个新冠RNA/毫升。有一位阳性感染者取样,提纯样本里面的RNA以后,用1g总RNA量来做RT-PCR,里面包含了500个新冠RNA/毫升,那么检测结果是阳性。可是如果他的样本和其他4个人混在一起检测,还是用1g总RNA量来做RT-PCR,假设是等量混合,那么他的RNA实际只占~20%。1g总混合RNA里面大约只有100个新冠RNA/毫升。受试剂盒敏感度的限制,结果会是假阴性。

  但这不是说混检就不能实行,而是有一定的限制:

  (1)每个样本的采集量要足,否则会出现稀释后出现假阴性的问题

  (2)只对低风险地区实行混检

  3.混检的算法

  下面用算法简单模拟采样数量和检测数量,其实也不是什么算法,就是两个数学公式:

  total_pop = 1400000000 #总人口rate = 0.00001 #感染率group_size = 10 #每组人数check_num = 0caiyang_num = 0#计算采用数量:总人数 + 要重复采样的数量caiyang_num = total_pop + (total_pop * rate) * group_size#计算检测次数:人数除以10 + 重复检测数check_num = total_pop / group_size + (total_pop * rate) * group_sizeprint(f'采用数:{caiyang_num:,}, 检测数量:{check_num:,}')

  运行结果:

  采用数:1,400,140,000.0, 检测数量:140,140,000.0

  假设感染率为10万分之一的情况下,要采样14亿零14万次;要检测1亿4千万零14万次。

  如果调整每100人一组检测:

  采用数:1,401,400,000.0, 检测数量:15,400,000.0

  采用数增加了100多万次,而检测次数减少了1亿2千多万次。也就是说分组能极大的减少检测次数。

  但是受制于准确度的影响,我们这里只是探讨一下算法。这些算法在计算机的数据处理上,确实起到了把效率提高几万,甚至几十几百万次的效果。

  4.用二分查找混检

  如果用二分查找法,可以进一步减少检测次数减少到23万次。

  这里仍然假设10万人有一个感染,也就是10万个人里面找一个人出来。用二分法需要找约17次,那么总的检测次数就是:

  group_size = 100000 #10万人一组group_num = 1400000000 / 100000 # 共1400组from math import log# 用2分法每10万人只需要log(10w,2),大约16次检测check_num = round(log(group_size, 2) * group_num)print(f'检测数量:{check_num:,}')

  计算结果:

  检测数量:232,535

  虽然由于检测准确度的问题,二分法不能实施,但算法的世界真的很奥妙。大家都应该学点编程,学点算法。

  下面是二分查找法的Python非递归实现:

  #二分查找法,非递归实现def binary_search(arr, x): low = 0 high = len(arr) - 1 mid = 0 while low <= high: mid = (high + low) // 2 if arr[mid] < x: low = mid + 1 elif arr[mid] > x: high = mid - 1 else: return mid return -1arr = [ 2, 3, 4, 10, 40 ] x = 10result = binary_search(arr, x)

  下面是递归实现:

  def binary_search(arr, low, high, x): if high >= low: mid = (high + low) // 2 if arr[mid] == x: return mid elif arr[mid] > x: return binary_search(arr, low, mid - 1, x) else: return binary_search(arr, mid + 1, high, x) else: return -1arr = [ 2, 3, 4, 10, 40 ] x = 10result = binary_search(arr, 0, len(arr)-1, x)

  5.点赞是美德

  你动动手指,就是对我最大的鼓励,点赞,转发走起!

  举报/反馈

上一篇:北大招生情况最差的一个专业,一年招一人,请假都不好意思!
下一篇:喜报!锦城学子在第十七届全国大学生智能汽车竞赛中再创佳绩

最近更新网络教育