挑战7天光速完成一篇NHANES,Day 2!

第2天主要任务:数据库的认识NHANES数据库听名字就知道和我们的MIMIC、eICU 一样是一个公开数据库,但是这个数据库的比较特别的点在于数据获取相对来说比较的简单,也就是说能非常方便的就下载到原始数据,这对我们这些“临床牛马”来说是非常利好的。之前也尝试过搞MIMIC,数据量太大了,本地安装数据库装了很久都没装上,NHANES就没有这个烦恼,可以疯狂冲锋冲锋 利用公开数据库发文章,最重要的就是要知道数据库的数据组成,他有那些数据,才能知道我可以利用些什么样子的数据进行idea构思。NHANES是关于营养调查的健康和营养的信息,是一个横断面的调查。从网站上我们可以看到,数据内容是非常丰富的。里面有不同的年份,比如“2013-2014”,我们叫一个周期,因为NHANES每2年上传一次相关数据。每一个周期里面有很多数据,但是我们主要利用的是(Data, Documentation, Codebooks),里面是包括了人口统计学、饮食数据、体格检查、实验室数据、问卷调查和Limited Access Data,我们最常用的是前5个,Limited Access Data数据需要申请,需要的批准候才行。 点击进去后就可以看到Doc File和Data File,我们可以通过Doc File刊这个数据集的一些基本介绍,点击Data File就能下载数据,然后利用R或者SPPS就能打开这个XPT的数据集文件因为后面也会用得到NHANES里面的数据, 所以我花了一些时间把所有的周期的所有数据全部下载完了哈哈哈,这个工作量还是很大的好啦,今天的分享就到这里啦!

医学生都来学!挑战5天Meta分析速成记,Day 1

医学生都来学!挑战5天Meta分析速成记,Day 1!做了很多孟德尔随机化相关的挑战,关注我们,跟着我们学习的人,都取得了不小的成绩,发表了属于自己的SCI。随着孟德尔随机化投稿难度加大,我们开始一些新的类型挑战,提高大家论文接收率!今天开始新的挑战!医学生学起来,尤其是还没有文章的。 第1天:收集信息。检索关键词:“Meta”,发文量、发表的杂志影响因子和分区都还不错,Human Vaccines & Immunotherapeutics(Q1,4.8),Journal of Environmental Sciences(Q1,6.9),仔细留意一下,把sort by调整成:publication date,最近出版的就是类似于Gene这样的分区可以的3-5分文章。说明Meta分析还是很有市场,都冲起来!总文章362662篇,每年都在增加,相当于每年都有4-5万篇的见刊量今年才见刊1万篇,还有30000篇的空间给大家发挥。就我看来和实际投稿,Meta分析的投稿难度是低于孟德尔随机化。尤其综述可以毕业的学校,Meta分析的性价比就比较高了,本科生有一篇二区以上Meta基本保研get。由于临床研究生时间紧迫,在有限的时间里阅读了大量的文献,却没有时间写一份质量上乘又会得到关注的综述性文章。现在跟着我的思路写起来吧除了检索信息,我还下载了10+近期Meta的范文,先精读,今天挑战就算开始啦! ❤注释:挑战时间为非工作、考试/原定学习计划时间,所有步骤都是现想(大家可以模仿我的思路),非已有课题主打从0开始!好了,第一天的挑战就这样愉快地结束了!明天我们将进入更加精彩的环节!敬请期待哦!🎉

高性价比的Science子刊!双向MR探究抑郁和虚弱关系

顶刊怎么做MR?? 武汉精神卫生中心、武汉大学团队使用双向MR探究抑郁和虚弱之间的关联,研究从遗传学的角度提供了虚弱和抑郁症之间双向因果关系的证据。 咋一看,双向MR就能Science子刊?? 仔细读文章发现本研究暗藏玄机。原来数据来源:英国生物样本库和TwinGen荟萃分析中获得了虚弱的GWAS数据,从精神病学基因组学联盟和FinnGen获得了抑郁症GWAS数据。 但是文章思路清晰,易于模仿,完全可借鉴,顶刊不是梦。 课题思路这不就来了么?万层高楼平底起,一起加油呀! 文章题目:Association between frailty and depression: A bidirectional Mendelian randomization study DOI: 10.1126/sciadv.adi3902 中文标题:虚弱与抑郁症之间的关联:一项双向孟德尔随机化研究 发表杂志:Science Advances 影响因子:13.6 发表时间:2023年9月 论文亮点 本研究采用孟德尔随机化(MR)方法,探讨了虚弱与抑郁之间的双向因果关系。通过分析来自UK Biobank和TwinGen的虚弱基因组关联研究(GWAS)数据,以及来自Psychiatric…

医学生极限挑战之7天完成NHANES,Day 1!

今天发起一个全新的挑战,挑战7天完成一篇NHANES数据库SCI! 今天的主要任务就是初步检索+确定目标期刊。NHANES数据库全名叫National Health and Nutrition Examination SiUrvey,是一项基于人群的横断面调查,旨在收集有关美国家庭人口健康和营养的信息。项目每年调查一个全国代表性的样本,约5000人。NHANES访谈部分包括人口统计学、社会经济学、饮食和健康相关问题。体检部分包括生理测量、实验室检查等内容。数据量特别的大,涉及的相关指标很多,可以适合各个不同的科室的朋友来挖掘写作,所以近些年非常多的火热,我也来试试水,嘿嘿 我首先就用简单的“NHANES”进行了初步的检索,发现目前文章非常多,高分文章不少,仔细看了看,基本集中在5分-10分居多,而且基本都是1区2区,还是可以的。因为我最近对抑郁症恰好比较感兴趣,就打算做关于抑郁症文章,又去检索了“NHANES and depression”,发文数目和文章的质量都还是不错的,那就真么定啦刚好出现在第一个文章是复旦大学最新的抑郁文章,后面全是我们之前调整的Journal of Affective Disorders,那我们就换一个目标杂志,我的目标文献就是这篇啦(DOI: 10.1080/07853890.2024.2314235),目标期刊就是Annals of Medicine。随后去深入了解了这个杂志,不是水刊,发文量和被引数都还可以,那就他啦,然后有检索了我之前就有点关注的血液指标,发现他和抑郁的关系没有被写过,所以,嘿嘿,就他啦好啦,也欢迎大家围观和我一起探索NHANES数据库,也可以留下自己的研究方向一起评论区讨论哦

挑战7天光速完成一篇肠道菌群MR,Day 6-7!

完成挑战!进度汇报:材料+讨论+介绍+模板化内容+投稿准备(翻译+润色+选刊)本次的主要内容是完成写作和进行投稿总体来讲,写作比较简单的,因为我已经摸透了“框架写作法了”,按照节奏一步一步进行就行通过AIGC工具帮助写作+自动添加引用文献+结构化语句添加+根据目标期刊润色+选刊推荐因为投稿得比较多了,所以在前期准备的时候就根据预期的期刊进行准备了,比如说图片的格式,写作的格式等等,所以投稿准备的难度不大一句话总结一下肠道菌群MR:肠道菌群MR就是高配版的双样本MR。无非就是数据量比较大,可以把肠道菌群的GWAS数据当成暴露、结局,或者是中介变量,然后我们只需要在mibiogen网站下载相关数据即可,当然因为数据量很大,需要进行数据的拆分,对设备有一定的要求。 写作:精读2-3篇选出的目标文献的肠道菌群MR论文,提取框架+充实内容+精修润色+成稿投稿。总而言之、言而总之,思路简单+核心代码=5分+,当然,想要冲击更高分的MR,那就需要处理一些本地数据了、选题也要更下功夫,我的这个挑战还是基于IEU的为了高分,冲锋,一起加油呀!!

最新!孟德尔随机化联合Meta一区6.6分!

最新!孟德尔随机化联合Meta一区6.6分!河南医科大学团队探究抑郁症和非酒精性脂肪性肝病关系中文标题:抑郁和NAFLD风险:一项荟萃分析和孟德尔式分析随机化研究 这篇论文的优点体现在以下几个方面:1. 研究主题的重要性:论文探讨了抑郁症与非酒精性脂肪肝病(NAFLD)之间的关系,这是两个在全球范围内具有高患病率的疾病。研究这一关系对于公共卫生和临床实践具有重要意义。2. 方法学的严谨性:研究采用了荟萃分析和孟德尔随机化(MR)分析两种方法。荟萃分析通过整合多项观察性研究的结果,提高了研究的统计能力和结论的可靠性。MR分析则利用遗传工具来探索因果关联,这种方法有助于减少观察性研究中的混杂因素和偏倚。3. 数据来源的广泛性:研究纳入了来自不同国家和地区的多项研究,涉及大量参与者,这有助于提高研究结果的普遍性和适用性。4. 结果的一致性:荟萃分析显示抑郁症与NAFLD风险增加之间存在显著相关性,而MR分析则没有发现基因预测的抑郁症与NAFLD风险之间的因果关系。这种结果的不一致性为进一步研究提供了新的方向。5. 研究局限性的明确:作者在讨论部分明确指出了研究的局限性,如纳入研究的数量不足、数据来源的地理局限性等,这显示了研究的透明度和对结果解释的谨慎态度。6. 临床意义的强调:研究不仅关注于疾病之间的关联,还强调了对抑郁症患者进行NAFLD风险评估的重要性,并提出了改善患者心理健康水平的建议,这有助于指导临床实践。7. 资金和数据可用性的声明:研究提供了资金来源的透明度,并声明了数据的可用性,这有助于其他研究者验证研究结果或进行后续研究。8. 作者贡献的明确:论文详细列出了每位作者的具体贡献,这有助于读者了解每位作者在研究中的作用,也体现了研究团队的合作精神。 综上所述,这篇论文在研究设计、数据分析、结果解释和临床应用等方面都表现出了专业和严谨的态度。

跟着顶刊学做MR!多中心合作探究血浆蛋白与2型糖尿病之间的关系

跟着顶刊学做MR,今天分享一篇多中心合作的MR,探究血浆蛋白与 2 型糖尿病和糖尿病并发症之间的关系。结局为糖尿病相关指标(包括2型糖尿病和10中糖尿病并发症)的文章已经非常多了,本文章特别的地方在于暴露为血浆蛋白,并且使用共定位分析。文章意义非凡:在 1,886 种蛋白质中,遗传预测的 47   种血浆蛋白水平与 2 型糖尿病有关。这些蛋白质中有 11 种具有强大的共定位支持。17 种蛋白质与至少一种糖尿病并发症相关。 希望接下来能整理出血浆蛋白的数据,换个结局就是一篇新TOP! 课题思路这不就来了么?万层高楼平底起,一起加油呀! 文章题目:Plasma proteins and onset of type 2 diabetes and diabetic…

反其道而行之,广州中医药大学阴性结果单边两+多变量MR发一区6.7!

今天分享一篇来自广西中医药大学的双样本,结果为阴性竟然也发了一区,暴露为吸烟,结局为静脉血栓栓塞,文章提供了吸烟不影响静脉血栓栓塞风险的遗传学证据。Thrombosis and Haemostasis是一本关注静脉血栓的杂志,然后发现期刊出版了类似研究探究暴露(糖尿病、循环细胞因子)与结局(静脉血栓栓塞)的双样本MR、双向MR。So?换个暴露,这就是我的目标期刊。 课题思路这不就来了么?万层高楼平底起,一起加油呀! 文章题目:No Genetic Causality between Tobacco Smoking and Venous Thromboembolism: A Two-Sample Mendelian Randomization Study DOI:10.1055/s-0044-1781425 中文标题:吸烟与静脉血栓栓塞之间没有遗传因果关系:一项双样本孟德尔随机化研究 发表杂志:Thrombosis and Haemostasis 影响因子:6.7 发表时间:2024年2月…

挑战7天光速完成一篇肠道菌群MR,Day 2-3!

我的新挑战持续进行中~ 第2-3天了:工作重点都集中在选题和阅读范文上,不管做什么类型的研究、不管做那种类型的MR,我们都需要花大量的时间进行选题评价,所以我用了2天的时间来进行选题确定,就是为了避免出现做完了工作发现已经被别人写了?选题不合适?等情况 说到肠道菌群孟德尔随机化,其实它就是双样本MR的plus pro max版本!就是一个暴露对应一个结局,只不过我们现在的暴露换成了肠道菌群,那我我们进行模仿的时候主要的就是去替换结局,比如别人做的比如别人写了自身免疫性肝炎,我就在想能不能写自身免疫性脑炎呢?理解起来超简单的,代码也不难掌握。最大的挑战,就是数据处理啦!毕竟这么多细菌,那么他的GWAS数据肯定是非常庞大的,细菌的基因总数比我们人类自身的基因多150倍!面对这么大量的GWAS数据,我已经做好准备了!代码都备好了,我的目标期刊是Journal of Affective Disorders,所以我选了里面两篇相关的文章来参考,换个角度,换个结局,就是我的新选题啦! 比如别人写了肝癌,我能不能试着写结直肠癌呢?当然这只是个例子啦!但确实在临床上确实有它的意义。然后把别人做过的疾病换个自己领域的疾病,就能写出一篇新文章,同时,我们也可以把肠道菌群看成中介变量,和中介MR联系起来,这样文章就更丰富了! 当然啦,数据量大是我们跑结局的一个限制因素。但只要我们掌握多种MR的方法,并且加强代码和写作能力的练习,相信高分MR就在眼前啦!好啦,今天的分享就到这里啦! 我的新挑战持续进行中~ 第2-3天了:工作重点都集中在选题和阅读范文上,不管做什么类型的研究、不管做那种类型的MR,我们都需要花大量的时间进行选题评价,所以我用了2天的时间来进行选题确定,就是为了避免出现做完了工作发现已经被别人写了?选题不合适?等情况 说到肠道菌群孟德尔随机化,其实它就是双样本MR的plus pro max版本!就是一个暴露对应一个结局,只不过我们现在的暴露换成了肠道菌群,那我我们进行模仿的时候主要的就是去替换结局,比如别人做的比如别人写了自身免疫性肝炎,我就在想能不能写自身免疫性脑炎呢?理解起来超简单的,代码也不难掌握。最大的挑战,就是数据处理啦!毕竟这么多细菌,那么他的GWAS数据肯定是非常庞大的,细菌的基因总数比我们人类自身的基因多150倍!面对这么大量的GWAS数据,我已经做好准备了!代码都备好了,我的目标期刊是Journal of Affective Disorders,所以我选了里面两篇相关的文章来参考,换个角度,换个结局,就是我的新选题啦! 比如别人写了肝癌,我能不能试着写结直肠癌呢?当然这只是个例子啦!但确实在临床上确实有它的意义。然后把别人做过的疾病换个自己领域的疾病,就能写出一篇新文章,同时,我们也可以把肠道菌群看成中介变量,和中介MR联系起来,这样文章就更丰富了! 当然啦,数据量大是我们跑结局的一个限制因素。但只要我们掌握多种MR的方法,并且加强代码和写作能力的练习,相信高分MR就在眼前啦!好啦,今天的分享就到这里啦!

1 190 191 192 193 194 232