工作目录设置有很多种方法,本文介绍最常见的几种方法为什么设置工作目录? 为了让代码执行时,从当前工作目录开始找数据,输出的结果也在工作目录,代码中的相对路径是以工作目录为起始去找对应的文件的(除非自己会弄绝对路径)总之要明确工作路径,不然会提示找不到文件。 欢迎联系我。
打开大数据文件需要使用EmEditor提示不能使用,或者不能正常选择分割符的时候,可以去百度搜一个EmEditor激活码升级,已经激活好的忽略。 Emeditor可以做很多数据操作,是个神器,可以减少代码操作,最大程度减轻医学生的代码压力。一、安装与激活安装完成后打开安装步骤,输入激活码激活DMAZM-WHY52-AX222-ZQJXN-79JXH能够正常使用分隔符内容,就算激活彻底完成需要放到代码中分析,请参照模板SNP的表头格式,修改表头二、拆分合并列注意:右键点击的位置一定要颠倒有序号的那一行的位置,填入的分割符号,一定要是英文的。拆分的话,选中需要拆分的列,右键选择拆分列按照实际的分割符拆分,其他都不用管,点确定。合并列也同理,选中多列后,选择合并列确定连接的字符,点确定即可,其他不用管三、选中筛选右键选中空白的,或者需要筛选的字符,选择筛选。 欢迎联系我。
今日分享的这一篇孟德尔随机化,是近期发表在Journal of Stroke(IF 8.2) 上的一篇多变量➕中介孟德尔随机化研究。 大概的讲述的故事是gut microbiota 与stroke 的因果关系,以及blood metabolites在其中所起的中介作用。思路很简单,但是贵在故事完整,所使用的到的数据均为开源的,在two-sample MR,multivariable MR,以及Two-step MR的框架下完成分析。中规中矩,工作体量可观! 做好每一个环节,是打磨一篇高质量文章的基础,快餐MR的年代已经过去,互勉 欢迎联系我。
IF 11.0 Mol Psychiatry 双向两样本孟德尔随机化 说实话这样的水平发11分是有点离奇的 当然了,投稿本身就是一门玄学,其中参杂太多因素 也有做得好的屡屡碰壁的 今日推送希望各位投稿人重拾信心! 本号将持续输出专业观点及分享心得体会,继续朝着成为专业与温度并存的方向努力,欢迎关注共同成长。 欢迎联系我。
今日分享刚发表在Neurology上的一篇孟德尔随机化文章 主题为lipids 与Multiple sclerosis (MS) 作者的切入点在于他汀类药物通过何种途径作用于MS。将途径分为胆固醇依赖及非依赖,纳入多种相关的靶点进行因果推导,采用Wald ratio 或IVW为主要模型,最终发现他汀类主要通过胆固醇得依赖途径作用于MS风险。此外,作者还额外分析了serum lipids与MS的因果关系,最终发现HDL-C为风险因素。 立足于临床问题,利用孟德尔随机化工具,从新颖的角度切入,进行深入探讨,是这篇文章发高分的重要原因之一。这篇文章对于我来说也是开了一次一次眼界。 说到底,这其实也是一篇药靶的孟德尔随机化,利用单纯两样本的技术就能完成,所以大家也要擦亮眼,不要被噱头冲昏了头脑,技术都是服务于临床问题,追求花里胡哨无异于舍本逐末。我会抽空就大家追求的靶点与菌群发一期简单的讲解。 另外最近有小伙伴在问为什么我的两样本课程➕答疑会比别人贵,只能说好的课程跟答疑一方面可以帮助大家少走弯路,节省大量的时间成本,另一方面则会在后期写作与投稿返修之中会体会到扎实的基础对于完成一篇文章的重要性。当然,为了适应不同需求的小伙伴,近期将会推出更多模式,帮助大家根据自己的情况选择适合自己的。 欢迎联系我。
大家都在说孟德尔随机化投不出去,但更多的人是在指责这个方法而不看文章做的怎样,说来也是一种不幸。方法无罪,更何况这是一个证据等级仅次于RCT的研究方法。因此,有人在鼓吹孟德尔的时代已经过去,有人在偷偷学习,有趣 当然,今天要讨论的,是另一种不幸—— 即便投了出去,也会被拿出来鞭打 如图,这是一篇今年8月份新鲜出炉的文章,第一作者是Alice R Carter,以孟德尔结果解读需要严谨对待为主线,对Cai等人的一篇MR进行多维度剖析,其中有说的不太合理的,也有非常中肯的地方 被拿出来剖析的这篇MR,做的是BP与psychological disease的因果关系 以下对Carter 所关注的点逐一剖析 1⃣️ Cai等人描述其研究为双向因果,但实际只做了单个方向。不过按照Carter 的说法,作者是因为做反向分析时工具变量数目不够,因此也就没有进行反向分析(其实这个是比较好解决的)。在Carter 的复现中,反向分析确实存在只有一个SNP的情况,且得到了阳性结果,但Carter也表明他们并不承认这一阳性结果,因为SNP只有一个,只能做Wald ratio,没办法进行多维度验证,这也是我有点反感药物靶点的原因,本身就是一个充满争议的结果。因此Cai等人不做反向也是有一定的依据 2⃣️ 在Cai等人的研究中,只用了GSMR进行因果推导,方法单一。目前主流的方法都是采用TSMR进行多维度分析。有上过我课程的小伙伴应该清楚,采用多种基于不同假设的方法对结果做出准确的判断,才能做到不夸大,不误判,这一点在Carter也做了强调 3⃣️ 样本重叠问题,在Carter的这篇文章里面也被提出来了。这其实是我课程重点强调的问题,尤其是对当大型单一队列占比较大时。 4⃣️ 在Cai等人的研究中,所采用的BP数据经过BMI矫正。这似乎看起来比较严谨,但实际上会引入偏倚。公共GWAS对协变量进行矫正并非我们能左右,但并不代表我们能忽略这个问题,起码要在讨论中进行探讨。 从这里看,代码虽简单的MR并非有手就行,难点在于他处。当然,文章都是会有缺陷的,我们能做的只有尽量提高认知,在力所能及范围内做到极致。 更多学习内容,欢迎有志芝士的加入! 欢迎联系我。
Hello!今天分享的是Stroke杂志上的一篇孟德尔随机化研究👇👇👇VitD与Cerebral small vessel diseases (CSVD)的两样本双向孟德尔随机化 最重要的是,主要的正向分析全部是阴性结果!而反向仅有一个阳性结果。 虽然说越来越卷,但是只要题目选的好,话题是大家关心的,两样本孟德尔随机化仍能占得一席之地。 说到这里,不得不提一下目前初学者当中对于两样本孟德尔随机化的看法两极分化,一个是认为两样本已经没法发表了,另一个则是认为学习两样本只要掌握代码分析等所谓技术层面的东西就能发文章。 其实这两种都是比较极端的。且看第一种,不能说是错的,水涨船高,肯定是越来越难的,很多小白学员一来就说自己是小白,然后又反问我两样本不是已经很难发了吗?我其实很想说你都清楚自己是小白了,那就更应该从两样本学起来,才有机会往更深层次去学习进阶课程(筹备中!!!) 再看第二种,就更加离谱了,文章能否发表,取决的因素太多了,离不开选题,设计,分析,结果解读,文章呈现等,掌握两样本的分析技巧的仅仅是开端而已。 今天分享的文章无疑可以给大家带来更多信心,只要把各个环节都做好,两样本孟德尔随机化依旧能够占得一席之地。这篇文章就是一个很好的例子,作为神经内科医生,Stroke的眼光我是相信的。 更多学习欢迎后台私!欢迎联系我。
Nutrients (IF 5.9) 近期刊登了一篇外国学者发表的孟德尔随机化研究,该研究探讨了软骨素,葡萄糖胺,维生素/矿物质摄入等与肾功的因果关系。 利用两组结局数据进行分析,验证结果的稳固性,是这篇文章的一个小亮点,同时也把整个文章的体量翻了一番。通篇行文平平无奇,图更是普通(还有点丑),能发表5.9分的,应该从多个方面去考量。选题可以说占了一定优势,另外一些设计的点子上在正文中也有所交代,可以看得出来是懂MR,且能够相对完整地将成果呈现,可谓优缺点并存,发表5分左右的杂志也是可以理解。 再说回Nutrients,这个杂志出了发表孟德尔文章数量多之外,Nhanes方面的文章也是常客。有需要的小伙伴可以将其纳为候选期刊之一。另偷偷告诉各位,第II期的NHANES联合MR Talk将在下周举行,届时欢迎各位帅哥靓女捧场哦! 如果需要系统学习孟德尔,欢迎来主页逛逛或者踢我哦!欢迎联系我。