今天给大家分享一篇在 2024年10月发表在《Chin Med J》(1区,IF=7.5)的文章。本文这项研究利用了全球疾病、伤害和风险因素负担研究 (GBD) 1990-2019年的数据,旨在调查中国胃肠道和肝脏疾病(GILD)的趋势。
第十四期所有师妹师弟已选定研究方向(2/3nhanes/gbd,1/3meta/MR) 每个月都有师妹师弟转介绍科室的老师或者同学加入学习,这是最快乐的事情,继续认真服务,认真带科研,和咱们的师妹师弟形成良好的长期关系(持续提供价值)~ 为什么咱们的师妹师弟愿意转介绍? 因为都能写出文章、投出文章,因为所有的数据都是整理好的,所有的代码都是验证过的(课题组还会帮忙跑出结果) 写作也是手把手一句一句的教~ 2024.11.03课题组师妹师弟反馈: 光速科研写作训练营–学完即可光速攥写任意类型的SCI论文~ 选题、跑代码(分析)、写作、润色、投稿选刊、返修,全流程,手把手教学~ 任意选择一个/两个方向(gbd/nhanes/charls/meta/mr…),开始做,做好投稿之后,继续做已投稿方向,或者学习新的方向~ 因此我们设置的热点课不是都需要学习的,选符合自己研究领域的,能快速出文章的方向去做就行啦~ 14期目前可插班(11.07号截止~) 在课题组助教、代码助教指导下 完成直播课(目前已上完一节)学习~ 赶上进度~
今天给大家分享一篇在 2024年10月发表在《Nutrients》(1区,IF=4.8)的文章。本文这项研究利用了全球疾病、伤害和风险因素负担研究 (GBD) 1990-2021年的数据,旨在分析全球范围内铁缺乏症(ID)的流行趋势并从1990年到2050年预测。
Day 5:完成文章中的Table和Figure 数据已经整理好了 那后面就是数据分析 做出Table和Figure 其实有了前面NHANES数据库处理的基础后 这种类型的文章内容基本是类似的 Figure 1:研究人群 Table 1:基线资料表 Table 2:回归分析 Figure 2:RCS Table 3:亚组分析 如果有问题的话 可以找一篇NHANES或者CHARLS的文献仔细品读 整篇文章的核心就是回归分析(到底有没有关系?) 和RCS曲线(如果有关系,是什么样的剂量效应关系?) 我们按照目标范文中的内容一步一步的做就好啦 通过这么久的实践来说 只要数据清洗好了个把小时就能得到所有的图片 大家也会发现数据库的结构和数据的清洗是最费时间的…
Day6-7任务:写作Introduction+写作Discussion+引文纳入+模块化部分的写作+润色+选刊 写作introduction 写作Discussion 引文纳入:我的引文是用Endnote20版本进行插入引文,步骤简单,一一纳入即可。 模块化部分的写作:模块化写作包括伦理、致谢、利益冲突声明、作者贡献、基金课题等,很多师弟师妹担心自己没有funding有没有关系,其实有可以写上去,没有也关系不大。 润色:文章已经是英文版本了,但是语言方面可能需要进一步润色,可以通过我们的润色指令进一步修饰一下语句。 选刊:选刊的方法有好几种,大家可以综合对比起来进行投稿。 以上步骤就是一篇孟德尔联合Meta分析的基础流程啦!大家可以对照着我这几天分享的研究思路去完成自己的论文哦!相信只要按照这个流程来操作,一定能够顺利完成一篇高质量的孟德尔联合Meta分析论文! 因为注册PROSPERO的注册需要还需要一些时间,所以我暂时还没有投稿,大家之后确定选题后就可以抓紧注册。 这次挑战虽然结束了,但我们的挑战还没有停止。希望师弟师妹能够保持对科研的热情和好奇心,跟我们一起探索不同的方法和挑战,继续加油发SCI~
全是学了立马能用的真本事,学会了至少为接下来的科研节约85%的时间~ 选题、跑代码(分析)、写作、润色、投稿选刊、返修,全流程,手把手教学~光速科研~每个步骤都会手把手帮助师妹师弟,直到论文接收~ 今日可插班 在课题组助教、代码助教指导下 完成直播课学习~
Day 4-5任务:完成核心表格和图片 这两天主要任务是数据清洗(已经清洗好了)+数据分析(作图+做表) 数据库最难的、最费时间的就是数据清洗了 我们之前花了大量的时间进行数据清洗 现在来说也是非常方便的了 所以就是说 数据库是个宝 只要数据清晰,怎么挖都是paper 那问题来了,怎么确定我的文章中需要什么数据? 这就回到Day 1的时候目标文献的确定 因为我们关注的都是CVD这个人群 所以很多的协变量基本不会发生太大的变化 只是自变量的X这个指标会不一样 阅读高质量文献的重要性这个时候及凸显出来了 协变量从既往的文献中获得: 文章中都详细的说明了每一种变量的定义 这也是我们在写文章的时候需要放的内容 对于变量的定义来说有一些是要按照常规 一些也可以自己定义 不管是那种方式,都一定要十分的清晰 单独的变量还是数据组成的复合变量 然后就是使用数据的提取和合并 这需要一些时间整理成可以直接分析的数据…