人工智能治疗肺癌,人工智能治疗癌症

大家好,今天小编来为大家解答以下的问题,关于人工智能治疗肺癌,人工智能治疗癌症这个很多人还不知道,现在让我们一起来看看吧!

本文目录

  1. 人工智能对于癌症治疗有没有办法?
  2. 人工智能加医疗有哪些方向
  3. 人工智能对医疗行业会产生怎样的冲击?
  4. 在未来怎样让人工智能进一步造福人类?

人工智能对于癌症治疗有没有办法?

谢邀。最近医学期刊《放射》(《Radiology》)发表了一篇论文,说的就是人工智能改善治疗乳腺癌的方法。

来自麻省理工学院计算机科学与人工智能实验室(MIT’sComputerScienceandArtificialIntelligenceLaboratory,CSAIL)、马萨诸塞州总医院(MassachusettsGeneralHospital)和哈佛医学院(HarvardMedicalSchool)的三位女科学家,联手开发了一套机器学习模型,被称为“随机森林分类器(random-forestclassifier)”的方法,并让它接受了600个高风险病灶的分析训练。

在综合了家族遗传史、人口统计、以及过往的组织活检和病理报告等信息之后,该模型对335个病灶(最终升级为癌症的病患)进行了测试,结果准确诊断了97%的乳腺癌是恶性肿瘤,而传统方法仅为79%。

这项研究的结论是:在将该机器学习模型引入常规诊断实践后,超过30%的良性病灶切除术是可以避免的。

同时。该技术的工作速度比乳腺X射线检查快30倍——据估计,医生需要50-70个小时来分析50名乳腺癌患者,而该技术只需要约30分钟。

顺手补充一下传统的乳腺癌医疗方法:乳腺X射线检查(Mammograms)——从X光片上看到可疑的病变组织之后,需要对患者进行针刺活检以确定其是否是癌症。然而,这一工具总会存在风险,譬如误诊,当尝试提高可以识别的癌症数量时,“假阳性”的结果也会增加,导致患者进行不必要的活检和手术。

“假阳性”的一个常见原因是所谓的“高风险”病变,当通过针刺活检进行测试时,这些病变在乳腺X射线照片上看起来很可疑,并且具有异常细胞。在这种情况下,医生通常采取不同的措施,有些医生对所有的”高危病变“都进行手术以去除,而其他人仅对具有”较高癌症发生率的病变“进行手术,例如“非典型乳管增生”(ADH)或“小叶原位癌”(LCIS)。

然而,第一种方法要求患者经历痛苦、耗时且昂贵的手术,而有些甚至是毫无必要的;第二种方法也存在不精确的情况,可能导致ADH和LCIS以外的“高风险病变成为漏网之“癌”。

所以,上述三位女科学家的人工智能方案,可以筛查乳腺癌几率,避免没必要的乳腺癌切除手术,让病人采取更有针对性的医疗方法。

从明年开始,马萨诸塞州总医院放射科的医生就会将这个模型纳入临床实践了。

人工智能加医疗有哪些方向

人工智能在医疗领域的应用包括但不限于以下几个方向:

1.医学影像分析:AI可以通过对医学影像数据的深度学习和图像识别技术进行分析,帮助医生更快速、准确地发现患者的病情。例如,AI可以自动检测CT、MRI等影像中的病变位置和类型,并辅助医生制定治疗方案。

2.个性化医疗:基于大数据和人工智能技术,AI可以建立患者的健康档案,并根据患者的病史、基因信息等特征,为患者提供个性化的诊疗建议。此外,AI还可以预测患者未来可能出现的疾病风险,提前进行干预和预防。

3.药物研发:人工智能技术可以协助药物研究人员更快速、高效地开发新药。例如,AI可以通过计算机模拟和预测试验,帮助筛选出具有潜在疗效的候选药物,从而缩短研发周期并降低研发成本。

4.医疗机器人:医疗机器人是一种集成了AI、图像识别、机械臂等技术的智能化机器人,可以在手术、康复、护理等方面提供协助和支持。例如,一些医疗机器人可以协助医生完成精密手术,提高手术的准确性和安全性;另一些医疗机器人可以帮助患者进行物理治疗和康复训练,加速康复过程。

5.医疗管理与决策支持:AI可以通过对医疗大数据的分析和挖掘,为医疗管理者提供更科学、合理的医疗资源配置和健康政策制定建议。此外,AI还可以协助医生进行临床决策,提高诊疗效率和准确性。

人工智能对医疗行业会产生怎样的冲击?

对于医学来说,临床经验、逻辑思维也是十分重要的。这样的能力不是靠储存多少海量的医学数据、病历档案就能够提高的,而是需要直觉、情感、思考、分析等积累起来;但这些人工智能并不具备,所以其很难替代医生的智慧。

健康产业在线·2017/01/1720:35评论(0) 收藏(2)7.9W字体:宋

医疗产业

最近谷歌旗下的人工智能Alpha-Go连续挑落50多名世界围棋高手,这也让全世界的目光再次聚焦到人工智能领域。而对于人工智能在医疗领域的应用价值,业界一直争论不休,有人认为会颠覆整个医学体系,拯救更多的患者;而也有人认为医学人工智能的发展会逐渐淘汰医生这一职业,那么人工智能对于医疗界究竟起到怎样的作用?

编选┃健康产业在线

在国外,早在2014年,IBM的“沃森医生”已经在美国安德森癌症中心上岗,运行之后被誉为“未来最好的癌症专家”和“医神”。据测算,沃森的诊断准确率达到73%。

在国内医疗信息化和分级诊疗的大背景下,人工智能与医学影像的市场空间在不断增长。国内也出现类似的医学人工智能公司,希望用人工智能的技术整合区域的医疗数据,替代医生繁重的重复工作部分,辅助医生进行医疗诊断、缓解医疗产能不足、解放优质医疗资源。

人工智能助力医疗影像

现今是大数据的时代,近年来随着随着移动互联、物联网等新兴技术的快速发展,由不同终端设备催生出的数据量愈加庞大,据相关机构预测,在2020年大数据量将上涨至44ZB。而值得注意的是,其实大部分数据毫无价值,妨碍了人们对真正有价值信息的获取。而人工智能便应运而生,意在帮助人们提取有价值的数据,助力企业快速从复杂的海量数据中获得洞察,并做出更为精准的规划决策。

对于疾病环境越来越恶劣、个体病例越来越多的现在,医疗数据的庞杂也就成了困扰医生治疗患者的难题。如何从庞大的数据库里找到他们所需要的针对特定性病人的治疗信息,正常来说,可能花费几年时间可以从中筛选出所需要的信息,但患者等不了这么久。而人工智能与医学领域的结合,就可以为医生节省大量的筛选时间,辅助医生进行医疗诊断、缓解医疗产能不足、解放优质医疗资源。

据了解,国外已经有科学家和医生正在利用人工智能来从海量数据,比如电子健康记录、影像诊断、处方、基因组分析、保险记录甚至是可穿戴设备所产生的数据中来提取有用信息,来为特定的一类人群而不是特定疾病来制定合理的卫生保健计划。

对于医生而言,大脑的记忆容量和时间是有限的,难以记住并理解日新月异的医学研究论文和上万种疾病。但人工智能不同,它可以通过深度学习技术,可以不间断从大量医学书籍、电子病历等完善自己。然后通过认知分析技术,凭借从各种渠道搜集的海量数据,迅速给出“意见”,指导医生做出诊断和治疗决策,并且不会因为人的各情绪导致缺诊或误诊,同时患者能够更快速地获得医疗服务,而医疗机构也可节省成本。

人力有时尽,而人工智能在医学上可以起到更好的推进作用。对于医生来说,通过人工智能可以辅助诊断,减少筛选对比病例的时间,为患者制定准确的治疗方案;对于患者来说,可以更快速的完成健康检查,获得更为精准的诊断建议,节省大量的时间、金钱成本;对于医疗来讲,深度学习可以提高准备效率,同进系统性降低医疗成本。

人工智能代替不了医生

虽然人工智能在医学领域的应用越来越广泛,但人工智能终究不能代替医生。人工智能这项技术,其最大的作用在于整合海量的信息,从之筛选出有价值的数据,是作为医生诊断的辅助。而到真正的治疗阶段,则更多需要医生对患者面对面的沟通、交流,来确定合适的治疗方案。而患者也更需要医生亲切的关怀,是有血有肉的交流方式,而不是机器冷冰冰的问答。

据业内人士表示,人工智能在医学领域中发挥的作用还是取决于当前的医学研究水平,也就是说,人类医学水平有多高,人工智能的有效性就会有多高。而未来,机器也是为医生的诊断提供建议,而采取哪种方式治疗还需要医生来决断。

此外,人工智能并不等同于智慧,其缺乏人类的情感。对于医学来说,临床经验、逻辑思维也是十分重要的。这样的能力不是靠储存多少海量的医学数据、病历档案就能够提高的,而是需要直觉、情感、思考、分析等积累起来;但这些人工智能并不具备,所以其很难替代医生的智慧。

况且,就人工智能的技术而言,实现诊断,乃至治疗这一阶段,其精确性还不够。简单而言,人工智能就是一组参数不确定的函数,参数的确定需要海量的数据来完成。数据越多,参数的范围也就会越小,人工智能在医学上的精确性也就越高。但目前来说,要达到精确性极高的程度,需要的数据量将是一个难以估算的程度。

另一方面,业内有不少人士对人工智能的保密性持怀疑态度。在信息化高速发展的时代,遭黑客攻击,信息泄露的现象也屡见不鲜。如何保障患者的隐私,也是困扰医学人工智能发展的一个问题。

医学技术不断发展的今天,我们面临的医学难题也在不断增加,滥用抗生素导致的超级细菌、基因变异导致越来越多的罕见病等现象屡见不鲜。而人工智能在医学领域的应用,也将辅助医生诊断,为更多的患者制定个性化的精准治疗方案,解除患者的痛苦。

在未来怎样让人工智能进一步造福人类?

2017年6月20日,零氪科技首席架构师王晓哲,在清华大学“天池医疗AI大赛”第一季肺部结节智能诊断《医学影像在肿瘤诊疗中的应用及智能诊断探索》发表演讲,演讲主题为《辅助医者普惠患者:人工智能技术在医学领域的应用与前景》。以下为王晓哲的演讲记录。

演讲从全局整体背景上介绍了人工智能技术与临床医学结合以后已经取得的成果,未来的发展前景和美好展望以及实际中碰到的一些核心挑战。

一、人工智能、机器学习、深度学习概念

什么是“人工智能”、“机器学习”、“深度学习”?这三个概念现在的媒体经常会混为一谈,使大家一头雾水。如果我们回到历史里追溯“人工智能”整体发展轨迹,就会很清晰的得到这三个术语的原本概念。

1.人工智能概念

从40年代末到50年代初,由于计算机的发明和逐步使用,人们想象,如果有了强大的运算能力,是否可以产生一种智能的程序,从而逐渐替代一部分人的工作。这个想法掀起了“人工智能”的热潮。

那时候,计算机的计算算力虽然比传统人工有了很大提升,但依然很有限。在当时阶段,实际上更多的是“人工”智能,最好的产品叫做“专家系统”。它是由大量的专家手动编制一系列规则,形成知识库,然后由符号推理形式,阐述最后结果。这是符号学派的路径。

这条路后来很快也难以为继。由于机器是单纯的接受方,不能主动做改变自己逻辑的事情,所有的事情必须由人类专家一条一条的以规则化的方式去做,非常僵硬。而它背后的基础,谓词逻辑又是一个非常刚性的框架,因此导致能表述的现实世界问题非常有限,更多的是一些玩具应用。符号学派的热潮很快消退,到70年代几乎无人提及。

2.机器学习的概念

符号学派的失败引出了新的想法,人们思考从另外一条路径来做。从统计角度,可以把所有的现实问题都转换成概率问题。因此,去寻找现实世界问题的解决方案就等价于寻找一个概率分布。基于这样的思路,于是有了初步的“机器学习”概念阐述。因此,80年代“机器学习”术语开始出现。

当时更多的是从传统的统计方法开始实践,应用最多的是朴素贝叶斯方法。其典型的应用就是垃圾邮件过滤,这是到目前为止仍最为简单有效的一种过滤方式。于是终于产出了能够实用化的一些产品。

但是,我们发现单纯从统计方法出发,可能会产生另外一些问题,因为统计模型一般都是基于具体问题设计的参数化模型,我们仍然需要去手工建模,而这些建模工作就是一个非常耗费精力的过程。

3.深度学习的概念

从2010年起,神经网络的一个分支、即深层神经网络这一类模型,终于有人找到了能很好地训练它的方法,实现自动去做特征抽取、表达抽取的工作。从此,“深度学习”这个概念就开始火了。所谓“深度学习”仅仅是特指深层神经网络的一个应用。

二、机器学习的典型问题范畴

机器学习分为有监督学习、无监督学习和表征学习。

1.有监督学习

概念:样本集里面的问题,需要通过人或者其他的方式给出一个标准的答案,模型所做的事情就是以后碰到相似原始数据的时候,能够尽量的贴近标准答案,越接近标准答案,模型评估效果越好。

分类:分类最终的目标变量是A、B、C这样的离散集合里具体一类。我们做肺部结节检测,发现结节后,它到底是良性还是恶性?这是一个典型的二分类问题。

回归:是指最后这个目标变量是一个连续变量。最简单的回归方法是线性回归,表达力很有限。

案例:比如临床上要分析血液里面的载脂蛋白和低密脂胆固醇这两个指标之间的关联性,那么就会套用一个回归模型来建立这样一个关系。

2.无监督学习

概念:指标准答案不存在或者不易定义,我们希望通过一些更为高层、抽象的规则刻划,让机器自动去发掘原有数据中间的一些特别特征或结构。

聚类:是把原始的数据、样本,按照某种特征分离成若干相似群体。根据基因测序结果或者根据生物芯片对于突变的分析结果,在分子分型和临床表现角度,把患者按相似性进行划分,分成一个个小的类别。这些不同的类别,分子分型和临床表现上有很强的相似性,可以对这一类患者采取相似疗法,以期获得相似效果。

降维:是对于很复杂、很高维度、需要很多特征来表达的数据空间,寻找其内在的冗余性,然后把冗余的部分去除,变成一个比较低维度、好处理的形式。

案例:癫痫患者往往需要做脑电波监控。脑电信号在头部采集,头部会贴两三百个电极,每个电极收集的信号都是完全独立的,都是一个时序特征。所有信号全部采集在一起分析,未必能很好地预测癫痫患者的发病时间或症状强弱的特性。因此需要寻找所有这些电极中的冗余点在哪,是不是电极信号需要组合一下或者筛选出某些主导电极,更好地刻划关联性,更好地预测癫痫患者的发病情况?这是一个降维问题,要将原有两三百个电极采集信号,转换成只有十几维的时序信号,这些信号与目标结果由最强关联性的信号来做最后的模型。

3.表征学习

概念:表征是指问题可以用不同形式来表述。有些表述形式很方便求解问题,而另一些表述形式不方便求解问题。

案例:分解质因数,如果用现有的数字体系,是一个非常难的问题,尤其是大数的分解。如果改变问题的表述方式,将数字的表示法更改,这个数字不再用固定底数幂加和的形式来表达,而是用一系列质数幂的乘积来表达,分解质因数就不是问题。因为原始表示法已经表达了最终要分解的形式。

表征学习有很多应用,在非医疗领域,如机器翻译、图像识别这些问题,都经常使用表征学习的方法,将图像、文本或者声音这些比较稀疏、高维度的信号,转换成一个稠密、低维度的向量。基于这个向量,我们可以更好地去刻划原有数据之间的相似性或内在结构,然后去更好地建模。

4.总结

深度学习整套模型方法从根本上改变了原始问题、原始数据领域的表达形式,把原有纷繁复杂的数据结构转换成一个更容易分类、更容易处理的数据形式,最后达到比较好的效果。

三、当前医疗领域深度学习应用热点方向

当前宣传的最火的就是深度学习。因为它的表征处理能力,可以很好的把很多现实问题转换成可以处理的形式。深度学习擅长处理的就是高维度、稀疏的信号。图像就是这些信号中一种有代表性的形式。医学影像处理应用很明显必然是一个热点方向。除了医学影像处理以外,临床里边还有很多其他问题域,比如时序信号处理、临床数据的信息提取等等,这些虽为很好的问题域,但都不及图像处理容易得到结果。

医学影像处理典型的四大类问题是:影像分类、目标检测、图像分割和影像检索等。都能对应到日常临床应用里的一些痛点的、比较浪费人力的问题。

四、前沿研究成果

以下分享临床问题领域把握比较到位、得到的结果也比较好的一些论文。因为都是针对医学影像数据,采取的建模方法都是类似的,基本上是基于CNN做各种模型变换,最后得到结果。

1.基于乳腺钼靶影像的病变检测

乳腺钼靶是常见的乳腺癌早期筛查方法,它的诊断难度其实不算大。如果有一个模型能够有效地检查钼靶影像中间异常密度区域,就可以很好地降低人工筛查的工作量。在这篇文章里,达到的结果接近人类专家的平均水平,这是一个非常了不起的结果。

2.脑部核磁共振影像中的白质高信号灶分割

为什么关注白质高信号灶?因为一旦核磁共振上面发现脑白质里有异常信号表达的时候,很有可能说明,在未来的一段时间内患者容易发展出帕金森氏症,所以它是预测帕金森氏症的一个有力指标。这里最重要的是怎么能准确地分割出脑白质的高信号灶。这篇论文用的也是相对比较传统的模型组合,最后得到的分割效果接近了人类专家的水平,也是一个不错的结果。

3.基于皮肤镜照片的皮肤癌分类诊断

这是斯坦福做的之前引起较大影响的论文,结果已经达到了人类专家水平,甚至超过了大部分人类专家,接近了一些非常有经验的专家。而它用的结构却是非常传统。

深度学习模型本身就是一种具有非常强表达力的模型,那么我们再去构建很复杂的网络结构、增加很多参数的话,其实很可能会变成过拟合的状态,反而无助于结果的一般化。所以,最重要的是我们如何能拿到足够多的、有标注的、高质量的数据集。数据集的规模越大,数据质量越高,最后能达到的效果一定会越好。相比于机器学习领域中大家争先恐后地去寻找新的网络结构、新的激活函数、新的优化方法的趋势,我们在临床需求落地到具体场景时,更应该关注的是原始数据怎么取得,怎么能以比较低的成本拿到高质量的数据。因为只要解决了数据这一点,建模这一步上面,其实并不存在决定性门槛。

4.基于数字病理切片的乳腺癌淋巴结转移检测

这一篇是GoogleBrain给出的,对高分辨率的数字病理切片,基于GoogleInceptionNet的网络结构去做特征提取,最后进行分类,然后刻画出来的乳腺癌细胞在组织上面的分布情况。它的检测效果达到了人类专家水平。且在与Google有合作的几个医院里,用训练集之外的真实数据去验证的结果仍然相当不错,这对于数字病理切片分割和性质的判断是很有应用前景的。

5.基于眼底照片的糖尿病性视网膜病变检测

这篇是GoogleBrain的结果,仍然是以InceptionNet为基础的模型结构。本身眼底镜影像相比于其他影像最麻烦的地方在于,眼底镜之间的数据异构性太大,不同人拍摄出来的眼底镜的曝光程度、偏心程度、视野范围,都有很大的变异性。如何很好的在预处理阶段尽可能的消除这些变异性影像,是它做的重要工作。最后达到的效果也是相当不错,判断视网膜病变严重程度的准确率和人类专家持平。

6.胸片骨减影应用

通常来说,面向的数据集都是断层扫描,因为断层扫描能够获得尽可能多的数据。但是,断层扫描单次检查对于患者的辐射量很大,用X射线要反复去切患者身体,辐射量要比做一次X光胸透大得多。我们想,有些患者是不是可以从单次胸透这种以很低剂量接受的检查的结果里面,发掘出来尽可能多的信息。胸透之所以提供信息量有限,是因为胸透是一个平面的叠加,把骨骼密度和人体里面软组织的密度分布情况,都叠加在一起,很难看清楚细节,谁也不知道这一部分吸收的X射线,到底是因为哪个组织产生的。

我们看软组织时,会希望把骨骼引起的影响给消减掉,也就是说把骨骼的影子去掉。怎么去除骨骼影这个问题很早就有人思考。医疗影像仪器制造商想了一个很聪明的办法,他考虑软组织和骨骼对于不同能量的X射线吸收特性不一样,那就先用低能量X射线拍一张,间隔很短时间后,再用高能量X射线拍一张,然后基于这两张照片上面不同组织的吸收特性不一样,做一个建模,然后利用数学方法把这个影减掉,这就是DES,也就是双能量数字减影技术。它可以拍出几乎看不到任何骨骼影子的软组织照片,但是DES技术有一个先天技术缺陷,是两次拍摄之间有一个间隔时间。

人是活着的,人体的组织在不停地蠕动,在间隔过程中,器官可能会变形,可能会移位,然后会造成DES技术拍出来的软组织照片有很多伪影,这个伪影会误导医生。在这个文章里面,它利用深度学习方法,基于单张传统胸透照片剔除其中的骨骼痕迹,得到的结果比传统DES摄影的软组织细节效果更好,也没有DES技术中产生的软组织伪影,这一篇文章是很有启发性的。

五、医学数据处理方向、成果、挑战

1.医学数据处理方向

一是临床信息的提取。包括我们如何去把传统的非结构化文本病历进行电子化、结构化,转变成可分析、可处理的结构化数据。

二是掌握结构化数据。谁掌握了越多的可分析的结构化数据,谁就能做出越多的临床科研成果,数据是最核心的价值。零氪科技开发了Fellow-X自动结构化引擎,可以让95%以上通过HIS系统对接的电子病历,自动转化成可分析、可处理的结构化数据,极大的降低了结构化的工作量。还有剩下的只能靠人工部分,也设计了一个很好的双录入加QC的比对流程去处理那些很难处理的少量病历。

2.医学数据处理成果

基于结构化病历的数据,得到成果。其中包括肺部结节的检测模型、重要并发症的风险预测。现在做的是中性粒细胞减少症、血红蛋白减少症、血小板减少症这些的风险预测。它们是肺癌患者化疗后很容易出现的一种恶性并发症,一旦出现严重的症状可能会造成生命危险。如果应用了零氪科技的预测模型,可以提前预知患者出现严重并发症的风险如何,然后在化疗前就给予适当处理,降低出现严重并发症的风险。

3.医学数据处理挑战

主要有三大块,一是优化目标的定义,也就是说问题本身的定义如何;二是可用数据,你能否拿到足够多的可用数据;三是模型的可解释性,如何处理对模型结果推理过程的置疑。

优化目标定义:之所以是一个问题,是因为临床上面很多问题的定义是模棱两可的,我们只能凭经验、凭一些医生的日常行为来粗略地去刻画这个问题,很难拿到一个数学上非常精确的问题定义。但是一旦问题定义不精确,最后对问题建模后的结果必然不对。所以优化目标的精确定义是非常重要的。

可用数据:即可用数据、高质量的数据集的重要性。

模型因果性、可解释性:这是与临床结合做研究的时候一个独有的问题。临床是和人的生命息息相关的,所以做的任何一件事情都要有理有据,都要有因果推论的关系。但是,我们做机器学习模型时,很容易陷入到直接对相关性进行建模的这样一个陷阱里。相关性建模涉及的两个因素未必有直接的因果关系,得出的这个模型,如何解释它最后结果的意义,是一个很难处理的事情。这一点就横亘在很多模型最后产品化、产业化的路上面,是一只拦路虎。如果不解决可解释性问题的话,就很难迈过这道门槛,把机器学习成果投入实际产业化。

转载自http://baijiahao.baidu.com/s?id=1571640250632901&wfr=spider&for=pc

关于人工智能治疗肺癌到此分享完毕,希望能帮助到您。

人工智能治疗肺癌,人工智能治疗癌症文档下载: PDF DOC TXT