冲刺一区!挑战5天完成一篇NHANES,Day 4!

进度汇报:完成图片和表格 数据已经清洗啦,现在要做的就是做出图片和表格。 在具体操作之前呢,肯定要去看文献啦! 明确需要跑出哪些结果, 模仿文献一步一步来就好啦! 经典NHANES文章有以下这些结果: Figure 1:流程图—–人群的数据来源过程 Table 1:基线资料表—–人群基本信息描述 Table 2:回归分析—–X与Y之间有无关系 Figure 2:RCS—-X与Y的剂量效应关系 Table 3:亚组分析—–敏感性分析 当然,我们也会看到有很多文章会有一些其他的处理, 比如加上了机器学习呀, 和孟德尔、Meta结合这种。 但本质上还是这个思路, 只不过在暴露的选择、分析方法上会有一些差异。 这就是NHANES文章的主要结果啦, 今日份挑战成功~大家的结果都跑出来了嘛!

蛙趣!这4种富集分析方法超实用❗

为什么要做富集分析? 组学数据得到的差异基因或者物质非常多,面对海量数据我们无法做到挨个研究、逐一验证来把待研究现象的机制解析清楚。 通过富集分析我们可以把差异基因或者物质根据其功能进行归类,这样具有相似功能的基因或者物质就被放在一起,从而减少工作量,并可以实现功能和表型相关联。 生信常用4种富集分析方法 KEGG/GO富集分析在方法学上均属于过表达分析(Over Representation Analysis, ORA),是一种广泛使用的分析方法,用于确定已知的生物功能或过程是否在实验获得的差异表达基因(DEG) 列表中显著地过表达(或者富集)。 GO富集分析 基因本体(Gene Ontology, GO):从三个方面对基因的本质进行描述。 1. 细胞组分(cellular component, CC)基因产物所在的细胞内位置。如“细胞核”、“线粒体”。 2. 分子功能(molecular function, MF)描述分子的特定化学活性,如催化反应或结合分子的活性。例如“氧化还原酶活性”、“蛋白质结合”等。 3. 生物学过程(biological process, BP)描述基因参与的生物学过程,如细胞凋亡、DNA修复等。…

AI生成论文泛滥,医学期刊今年撤回超百篇投稿

知名学术出版集团Springer Nature旗下刊物《神经外科评论》近期遭遇大量AI生成内容冲击,不得不大规模撤稿。据最新统计,该期刊已撤回129篇问题论文,其中以印度Saveetha大学相关稿件数量最多。值得注意的是,这所大学此前就因学术诚信问题被《Science》杂志点名批评。期刊出版负责人Sverre Klemp透露,针对AI生成内容的审查仍在持续,未来可能采取更严格的防范措施。 PART 01 撤稿理由 最新的撤稿声明指出:“主编决定撤回该文章。经过出版方的调查,发现包括本文在内的多篇评论文章在极短时间内提交,且存在明显迹象表明这些内容是由大型语言模型生成的,而作者并未对此进行说明。这些文章违反了期刊的编辑规定,因此被撤回。”根据撤稿观察网(Retraction Watch)的统计,被撤回的评论文章中,有87篇来自Saveetha大学的研究人员,其中35篇由Saveetha牙科学院和医院的两位研究者Hethesh Chellapandian和Sivakamavalli Jeyachandran撰写。 PART 02 作者的答复 Jeyachandran在邮件中表达了他对撤稿决定的不满。他认为,仅仅因为未公开使用LLM就撤回文章“令人困惑”。他表示:“撤稿通常是因为严重的学术不端行为,比如数据造假、抄袭或传播有害的错误信息,而不是因为流程上的疏忽。”Jeyachandran强调,被撤回的文章是评论性质,而非研究论文,且“没有数据造假、抄袭或违反期刊政策的情况。如果期刊仅仅因为未披露AI辅助就撤回文章,那么可接受与不可接受行为之间的界限将变得越来越模糊。” 《神经外科评论》的投稿指南中 包含了以下规定: 在撰写论文时,若使用了大型语言模型(LLM),必须在方法部分(若无方法部分,则在适当位置)进行明确说明。然而,若LLM或其他AI工具仅用于“辅助编辑和校对”,则无需特别声明。无论何种情况,作者需对最终版本的内容承担全部责任。 PART 03 印度Saveetha大学深陷学术风波 Saveetha大学及其牙科学院此前曾因引用堆Saveetha大学及其牙科学院曾因涉嫌引用堆砌行为而受到质疑。引用堆砌是指研究人员通过不必要的引用,包括自引,来人为提高学术指标。2023年调查报告发布后,该机构的撤稿数量显著上升。 注释:可以用作对正文的补充 2024年,Saveetha大学的研究人员被期刊撤回了至少80篇论文。到了2025年,《神经外科评论》的撤稿事件使得该校的撤稿总数攀升至90篇,而此时2025年才刚刚开始。同年1月,《定量科学研究》期刊发表的一篇论文指出,Saveetha大学被列为存在“可疑作者行为”的机构之一,其研究产出在2019年至2023年间翻了一番。 PART 04…

全网首发!Meta注册网站迎来史诗级更新😱

近年来,Meta分析的文献数量越来越多,发表Meta分析越来越难,因此,杂志社会优先发表已经注册的Meta分析。无论你的Meta分析是已经完成还是正在制作中,甚至是还没开始进行,都可以在PROSPERO、Cochrane等平台上注册,注册之后会获得一个注册号,有注册号的Meta分析竞争优势更强。 为什么杂志偏爱已注册的Meta分析? 1️⃣ 减少偏倚风险:未注册的Meta分析可能在数据收集或分析阶段有意或无意地筛选支持某种结论的研究(如仅纳入阳性结果),导致结论偏倚。预先注册要求研究者事先明确研究问题、纳入标准和分析方法,降低了“数据挖掘”或“结果调整”的可能。注册要求预先提出假设和分析计划,防止研究者根据结果反向调整研究目标。 2️⃣提高透明度和可重复性:注册文件中需详细描述检索策略、数据提取标准、统计方法等,使审稿人和读者能评估研究设计的合理性,并验证结果的可靠性。 3️⃣符合学术伦理和期刊要求:国际医学期刊编辑委员会(ICMJE)建议临床试验必须注册,这一理念逐渐扩展到观察性研究和Meta分析。部分期刊(如BMJ、PLOS Medicine)明确要求Meta分析需预先注册。 4️⃣增强结果的可信度:审稿人通常对注册研究的严谨性评价更高,认为其方法更可靠,结论更少受主观因素影响。注册记录可追溯研究设计的原始意图,减少因方法争议导致的拒稿或结论质疑。 5️⃣应对“重复Meta分析泛滥”问题:同一主题的多个Meta分析可能因方法差异得出矛盾结论。注册机制可帮助期刊筛选出计划更完善、目标更明确的研究,避免低质量重复。 目前Meta分析主流平台有:PROSPERO、Cochrane、INPIASY三大平台,其中最受欢迎的就是Prospero。这次Prospero大改版,统计之光也是率先整理好了新版注册教程,欢迎大家转发收藏~ 在做Meta分析的家人们! Meta分析最火爆的注册平台PROSPERO网站 2月26日突然全面更新! 新版网站的审核速度就像坐火箭一样快! 昨天(2月27日),统计之光的一对一学员提交后,当天就拿到注册号了! 为了让大家更好地了解新版本,今天详细解析新旧版本的注册条目内容、差别以及变化。 1. 网址没变,搜索 PROSPERO 就能进入 2. 新版本的注册条目相较于老版本减少了两个,现在只需要填写 38 个信息内容即可。具体如下: ✅ 基本信息(6项)✅…

冲刺一区!挑战5天完成一篇NHANES,Day 3!

进度汇报:下载数据+清洗数据 首先是数据的下载部分, 在前期我们已经将所需要的数据都整理在Excel表格中了, 而且所有周期的所有数据也都下载到本地了, 只需要用代码库库一顿提取就完事~ 然后是数据的清洗部分, 这个部分也是根据Excel表格来, 比如年龄可以是连续变量, 也可以根据年龄段分成分类变量, 若是分类变量,那么每一类用什么数字来表示, 这些都需要在表格中标注清楚。 理清思路后就可以开始疯狂筛选啦! 整理好了数据以后,后面的分析实际上是非常简单的, 选题才是最重要、最费时间的, 也是最容易浮躁滴,静下来,方向对了,就一定能出成果。 今日份挑战成功~大家都进展到哪一步了呀~

冲刺一区!挑战7天完成一篇GBD,Day 1!

在师弟师妹们的见证下,NHANES、MR、Meta我们都已经成功挑战很多期啦我们换一种挑战,那就是GBD(Global Burden of Disease)当听到这个名字的时候,Global肯定就知道这个数据库十分不简单GBD都是四大顶刊的常客了而且最大的特点就是统计方法很简单也不涉及复杂的数据清洗更重要的是不管你是临床、护理,还是公卫都能进行实操 我在Pubmed上面进行了初步的检索“Global Burden of Disease”发现总共有3万多篇,发文量呈现逐年增多的趋势大致浏览了一下发表的文章质量让我口水直流啊!!!同样的思路移植到我自己的关注的领域或者疾病就是一篇新的顶刊paper所以也来尝试挑战挑战自己 老规矩,首先要设定目标期刊因为我是心内科的,关注心内科疾病相对来说多一些,我初步检索了一下“GBD and heart failure”竟然有600+篇而且里面最简单的已经被写过了我得琢磨琢磨能不能从里面挖掘点儿信息出来琢磨选题花了大量的时间那就换了一个在数据库里面有的但是相对来说比较小众的心内科疾病 开干啦,选了个近期发表过GBD挖掘的期刊作为我的目标期刊就把Public Health暂定为我的目标期刊吧但是我觉得可能工作不止这个量值得更高IF的期刊就先选定这个期刊吧,到时候再调整 我选定了来自上海交通大学2024年2月刚发表的文章‘Burden of heart failure in Asia, 1990-2019: findings from the Global…

冲刺一区!挑战5天完成一篇NHANES,Day 2!

第2天的主要任务:提取数据前的准备 提取数据前需要准备的有: 熟悉NHANES数据库 阅读10-20篇类似文章 明确文章需要的协变量 制作Excel表格 经过前几期的挑战, 大家对NAHNES数据库已经有了一定的了解, 这个数据库优点就在于可操作性强, 可以快速验证自己的选题, 疯狂冲锋冲锋~ 在确定协变量之前需要大量的看文献, 了解别人的协变量是怎么写的, 哪些可以借鉴,哪些需要根据自己的选题调整。 在明确好协变量后, 需要整理一份独有的Excel表格, 将X、Y以及协变量的详细内容都列进入, 比如变量名、NHANES里的变量信息; 分类变量还是连续变量; 涉及的周期等等。 任何事情做到心中有数才能事半功倍! 只要思路清晰了,后面的一切都好说,没什么复杂和困难的, 重点就是选题(选择指标和idea) 这就是我花了很多的时间进行初步检索的意义 千万不要一来就闷头开跑,…

杭州学者,CHARLS+HRS发了中科院1区!

浙大医学院等研究者近日在8.5分公共数据库神刊《Cardiovascular Diabetology》发了篇研究,小编拆解给大家食用! ⭕️研究设计 ⭕️关键结果 eGDR越高,衰弱进展越慢:与eGDR最低组(T1)相比,最高组(T3)的FI年增幅显著降低(CHARLS:β=-0.294;HRS:β=-0.378)。每增加1个标准差eGDR,FI进展减缓0.14-0.17分(P<0.001)。 糖尿病与非糖尿病人群一致:无论是否患糖尿病,eGDR与衰弱进展的负相关均显著(尤其CHARLS队列)。 排除基线衰弱后结果仍稳健:提示eGDR可能延缓从健康到衰弱的转变。 💡数据选择亮点 👉双队列验证增强普适性 同时纳入 中国CHARLS 和 美国HRS 两大前瞻性队列,覆盖东西方不同种族、文化背景的中老年人群,减少单一队列的地域偏倚,验证结果的跨人群一致性。 延伸思考:队列选择时需关注“外部效度”,避免结论仅适用于特定人群。 👉大样本长期随访数据 总样本量近1.5万人,平均随访4-8年,提供充足统计效力(Power)捕捉衰弱进展的细微变化,降低II类错误风险。 关键点:长期追踪数据更适合研究“进展性结局”(如衰弱指数累积)。 👉基线数据清洗严谨 排除基线已存在严重衰弱或关键变量缺失的个体,减少“疾病-暴露”反向因果干扰(如衰弱可能影响血糖控制)。 💡统计分析亮点 混合效应模型处理重复测量 采用线性混合效应模型(LMM),同时纳入固定效应(eGDR、年龄、性别等)和随机效应(个体间差异),更精准捕捉eGDR对衰弱进展的 纵向影响。 对比传统方法:优于单纯线性回归(忽略个体内多次测量相关性)。…

吃透这6张纸,你的生信分析就很牛了!🐮

都说走过最长的路就是套路,在生信研究里大家一起走过的路也就各种套路的集合。 生信研究的套路可以相互组合叠加从而发展出更新更全面的新套路。 我们平时如何能创新套路呢? 教大家一个实用的心法,带着以下六个方面的问题在生信文献库中学习调研: 表型报道:在想要研究的疾病中有哪些表型报道? 相关基因:在表型的基因列表中有哪些基因? 套路汇总:在本疾病中有哪些相关的生信文章发表? 数据集信息汇总:在本疾病的研究中有哪些可以使用的数据集? 高分热点:本疾病有哪些高分文章发表?研究的热点在哪里? 思路借鉴:其他疾病有哪些高分热点文章?这个思路是否适用于自己的研究? 在学习调研的过程中,要标注所有知识点的文献来源,便于回溯以及在标书或者文章中引用。 此外,还要注重整理,标记好文章的的影响因子和套路类型,便于自己能力的提升。 一、生信研究的关键问题 1️⃣ 理解本质:我们做生信研究,究竟在研究什么?2️⃣ 课题拆解:如何拆解我的科研假设?3️⃣ 提炼重点:课题设计的重点、逻辑链条和创新点是什么?4️⃣ 高效验证:如何性价比最高的验证你的生信结论? 二、生信研究的套路主要依靠以下三步提炼 ✅ 建立文献筛选模型:梳理提炼文献——找规律、作总结、筛选模型提炼关键词✅ 批量做加法:根据关键词下载大量文献,建立对SCI文章的审美✅ 专业做减法:提炼总结共性规律和个性化差异,构建知识树 三、生信研究中的套路 四种基本套路a.…

冲刺一区!挑战5天一篇NHANES,Day 1!

NHANES数据库真的是常挖常新~, 最近在临床轮转时get了新的idea, 刚好NHANES数据库里有这些指标和疾病, 小编打算发起一个新的挑战~ 想做的师弟师妹们也可以跟着一起做起来。 挑战5天完成一篇NHANES数据库SCI! 今天的主要任务就是初步检索+确定目标期刊和文献。 想必大家对NHANES数据库已经有所了解, 这个数据库涉及的指标和疾病特别广, 各个科室都可涵盖, 可以满足不同群体的需求, 想到的idea都可以拿到这个数据库来验证。 大家一起学习,一起加油~ 不同类型文章的操作步骤都类似, 首先得检索你的idea是否已经被他人做过, 这特别特别特别重要!!! 我对“NHANES”进行了检索, 截至目前已经发文5800多篇了,势头很猛! 然后我检索了“NHANES and 发现的新指标”, 还没有人写过,抓紧时间冲锋! 那就这么决定啦~ 在看文献的过程中发现了一篇相同领域的经典文章, 它所投的期刊的影响因子、发文量、首次回复时间都很不错,…