
医学生速👀挑战7天完成一篇GBD论文,Day4~5





Day 4-5:方法学的复刻:完成核心Table和Figure
这两天的任务主要是根据研究目的下载数据+数据分析
前面有师弟再我们评论下面说:最近数据下载怎么这么慢?
那是因为使用GBD的人逐渐多了起来
和我们之前跑MR的时候一样,502的情况很多
网站压力太大
也就意味着我们再下载的时候会等待很久的时间
特别是想要下载全球数据的时候
如果是这样的话
建议大家分段下载然后进行拼接
比如下载90年到21年
我每5年为一个周期进行下载
虽然有些麻烦
也只有通过这种方式一定程度上缓解压力了
但是下载的数据是标准化的
不需要过于复杂的处理就能够直接使用
一般我们需要下载发病率、患病率、DALYs
从这3个指标进行疾病负担分析
因为数据是标准化的
所以不用清洗就能直接使用
纳入到相关模型中进行展示
我们的基础代码包已经整理好了
放进代码里面跑一边就能跑出自己的结果
基本对设备的要求一般
除非是进行前沿分析这个最好用配置好一些的电脑
其他的实现还是比较容易的
通过不断变换研究的视角和方法
也就是换研究人群、换研究地区、换年龄范围、换危险因素
就可以持续产出新的研究成果
今天的所有表格和图片就完成了
明天就要开始写作啦!欢迎大家在评论区留下自己的经验和想法,我们下一篇进度汇报见!