当前位置: 首页 精选范文 统计学变量类型

统计学变量类型范文

发布时间:2023-10-07 15:40:31

导语:想要提升您的写作水平,创作出令人难忘的文章?我们精心为您整理的5篇统计学变量类型范例,将为您的写作提供有力的支持和灵感!

统计学变量类型

篇1

1.1根据资料类型初步确定方法

临床研究中产生的各种不同原始资料,而不同数据资料类型采用的统计分析方法也不同。定量资料常用的方法有t检验、方差分析、非参数检验、线性相关与回归分析等。定性资料可用的方法有χ2检验、对数线性模型、logistic回归等,影像医师可根据不同需要选用不同统计方法。值得一提的是有些资料类型确定后,统计方法的选用对其有序性有相应要求;而多种方法联合应用或者使用部分少见的分析方法时还需要在选定统计方法后,利用统计软件(如SAS、SPSS)对应的不同命令进行初步分析试验。

1.2根据研究目的选择方法

1.2.1差异性研究

差异性分析是指评价比较组间均数、频数、比率等的差异。根据研究需要可选用的方法有χ2检验、t检验、方差分析、非参数检验等。临床上研究两组、多组样本比率或构成比之间的差别关系时最常用χ2检验,也是针对计数资料进行假设检验的一种常用的统计学方法,而对两组定量资料分析常用t检验和秩和检验,多组资料分析则常用方差分析;Fisher精确概率法主要适用于总体样本频数小于40或四格表中最小格子T值<1。虽然Fisher精确检验不属于χ2检验,但仍可以作为有效的补充,而也有人认为在统计软件普遍易得的当下,Fisher精确概率法也同样适用于大样本四格表的资料。如彭泽华等[6]在探讨冠状窦-左心房肌连接的双源CT冠状动脉成像(DSCTCA)形态特征时针对冠状窦-左心房肌连接的类型在两组类别变量采用联表的χ2检验,结果差异无统计学意义(χ2=0.115,P=0.944)。Teefey等[7]在研究超声表现及白细胞计数预测急性胆囊炎坏疽变化关系时使用Fisher精确分析。t检验适用于两组定量资料分析且资料满足方差齐性和正态性两个基本条件;同样t检验适用于完全随机设计的单因素两水平的资料,在选用t检验时应注意对资料进行相应的变量变换,若资料不能满足基本条件则选用适合分析偏态分布的非参数检验(如:秩和检验)进行分析。如Wang等[8]在研究不同侵袭性的前列腺癌组织和正常前列腺组织以及外周带前列腺癌Gleason评分与肿瘤信号对比时采用t检验。Kung等[9]在研究化脓性髋关节炎的临床和放射学预测指标时也使用t检验分析。秩和检验包括基本秩和检验(Wilcoxon等级检验、Mann-WhitneyU-检验)和高级秩和检验(Kruskal-Wallis、Friedmantests、Kolmogorov-Smirnov拟合检验)。当研究资料为两方差齐且呈正态分布的总体,而总体分布类型未知或者不满足参数检验的条件时,采用t检验对样本进行比较;但若无需比较总体参数只比较总置的分布是否相同且总体资料分布类型未知时需要采用非参数的Wilcoxon秩和检验进行比较。针对两组或多组样本的定性资料使用秩和检验比较时,需要混合两样本数据、编秩(从小到大)、计量T值、查表或计算求得P值。如Saindane等[10]在对“空蝶鞍”的临床意义判定因素研究中针对颅内压增高和偶然发现空蝶鞍患者两组资料对比时采用Wilcoxon秩和检验。Filippi等[11]在研究DTI测量儿童Ι型神经纤维瘤病胼胝体派生指标时运用Wilcoxon秩和检验。事实上在影像资料分析中经常见到多重组间比较的情况,方差分析(analysisofvariance,ANOVA)就是用来推断两个或者多个总体之间是否有差别的检验,又称F检验。多重组间比较不能单纯选用两样本均数比较的t检验,但是可以根据资料类型选用ANOVA检验。若来自两个随机样本资料呈正态分布且方差齐性同的定量资料,应采用两因素(处理、配伍)方差分析(two-wayANOVA)或配对t检验。通过F检验可以比较可能由某因素所至的变异或随机误差,同时可了解该因素对测定结果有无影响。当不满足方差分析和t检验条件时,可对数据进行变换或采用随机区组设计资料的FriedmanM检验。Obdeijn等[12]在研究乳腺术前MRI能减少术中切缘和乳腺保守术后再次手术,使用ANOVA分析两组资料,结果对照组(29.3%)相比术前MRI病例组(15.8%)有效减少切缘和再次手术(P<0.01)。

1.2.2相关性分析

相关性分析不等同因果性,也不是简单的个性化相比,其涵盖的范围和领域较为广泛。统计学意义中的相关性分析包含相关性系数的计算,其过程为:每个变量转化为标准单位后,乘积的平均数即为相关系数。相关性分析可以用直观地用散点图表示两个或者多个变量的离散,当其紧密地靠近于一条直线时,即变量间存在很强的相关性。相关分析常用的方法有Pearson相关性分析、Spearman等级相关分析和卡方检验。临床中对两个或者多个均为定量变量的资料,且变量均呈正态分布时可选用Pearson相关分析,但多数情况下Pearson相关分析适用于两组资料的相关性分析。判断两变量之间线性关系的密切程度主要用Pearson积差相关系数,其范围为-1~+1。若相关系数的绝对值越接近1,即两变量间相关性越密切;反之,相关系数的绝对值越接近0,其相关性越差。实际上在高质量期刊论文中使用Spearman等级相关分析的研究也很常见,其通过相关系数进行变量间线性关系分析来判定两个变量间相关性的密切程度。而密切程度的量化指标则通过计算样本相关系数r,根据实际计算r绝对值所属范围来推断两个来自总体变量的线性相关程度,从而推断总体的相关性。根据实际分析需要,将相关关系密切程度分为6等:当IrI=0时,说明两变量完全不相关:当0<IrI<0.3时,说明两变量不相关;当0.3<IrI<0.5时,说明两变量低度相关;当0.5<IrI<0.8时,说明两变量显著相关;当0.8<IrI<1说明两变量高度相关:当IrI=l时,说明两个变量完全相关。王效春等[13]在研究磁敏感加权成像与动态磁敏感加权对比增强MR灌注加权成像联合应用在脑星形细胞瘤分级中的价值一文应用Spearman等级相关分析,结果显示肿瘤内磁敏感信号与相对血容量最大值和病理分级呈正相关(IrI分别为0.72、0.89,P值均<0.01),相对血容量与病理分级呈显著正相关(r=0.78,P<0.01)。又如Lederlin等[14]在比较几何参数、相关功能与组织学特性在哮喘患者的支气管壁CT衰减性关系中同时使用Pearson相关分析和Spearman等级相关分析,其r=0.39~0.43,表明与对照组相比常规CT衰减参数在哮喘患者平常支气管的CT参数、气道壁衰减方面更好的区分哮喘患者,同时也更好地区分气道梗阻。值得提及的是对资料有序或无序无法作出初步判定,且明确资料类型为定性资料时还可以选择使用卡方检验和Spearman等级相关分析。

1.2.3影响性分析

由于事物之间的联系是多种多样的,而某一结局可能受到来自其他多个方面的影响,此时为分析某一结局发生的影响因素可采用的资料分析方法有线性回归(一元或多元)、logistic回归、Cox比例风险回归模型(生存分析)等。在影像资料分析中一元线性回归是将影像资料中一个最主要影响因素作为自变量来解释因变量的变化。多元回归定义为某一因变量的变化受多个重要因素的影响,而此时需要用两个或多个影响因素作为自变量来解释因变量的变化,且多个自变量与因变量之间是线性关系(多个因变量之间相互独立)。实际研究中多元线性回归模型在影像资料分析应用较为广泛。Langkammer等[15]在磁敏感系数绘图在多发性硬化中应用研究中使用多元线性分析,结果显示各种影响因素中年龄是预测磁化率影响最强的因素。Logistic回归是研究二分类和多分类观察结果与某些影响因素自己建关系的一种多变化分析方法,其经常需要分析疾病与各影像指标之间的定量关系,同时又需要排除一些混杂因素影响。Logistic回归在统计学上属于概率型非线性回归,其分析思路与线性回归大致相同,能有效解决过高或过低水平因素以及分析因素少而样本量大等问题。相比多元线性回归,Logistic回归在处理分类反应数据方面更为常用,且适用于结局为定性影像资料。如Lee等[16]研究高分辨率CT在发现小蜂窝样特发性间质肺炎纤维化的连续变化和预后应用中使用logistic回归分析,结果表明高分辨率CT在网状和磨玻璃状范围内评价普通肺炎与非特异性纤维化肺炎之间差别明显(P<0.01)。在临床实际工作中常常需要分析生存时间与影像资料之间的关系,Kaplan-Meier法就是常用的一种分析方法,其又称乘积极限法,对大小样本资料分析均适用。实践中习惯上以时间为横轴、生存率为纵轴回执的阶梯状图称为Kaplan-Meier生存曲线(survivalcurve),也称K-M曲线。Cox比例风险回归模型是另一种生存分析方法,包括参数与半参数模型两类,其主要是进行多因素生存分析的一种方法,同时可分析众多变量对生存时间和生存结局的影响。Saad等[17]在经颈静脉肝内门体静脉分流术在肝移植受者的技术分析和临床评估研究中比较成功施行肝移植与非移植病人开展门体分流术(transjugularintrahepaticportosystemicshunt,TIPS)后的临床疗效评估,使用了Kaplan-Meier法,结果显示6~12个月、12~24个月、24个月以上,移植成活率分别为43%、32%和22%。生存期大于1年的晚期肝脏疾病模型存活评分低于17分、等于17分或大于17分的存活率分别为54%和8%(P<0.05)。

2其他适用方法

2.1ROC曲线

ROC(receiveroperatingcharacteristic)曲线是欧美影像学期刊中应用较为常见的统计学方法,国内期刊应用相对较少。ROC曲线根据一系列不同的分界值以真阳性率(灵敏性)为纵坐标,假阳性率(特异性)为横坐标绘制的曲线。ROC曲线分析结合灵敏度(sensitivity)和特异度(specificity)广泛应用于医学诊断,也应用于影像诊断及人群筛查。ROC曲线根据曲线下面积(areaundertheROCcurve,AUC)的大小对诊断试验作定量分析。理论上,AUC值在0~1间。根据实际情况将诊断分为不符合诊断(AUC<0.5)、无诊断价值(AUC=0.5)、低准确性(0.5<AUC<0.7)、一定准确性(0.7<AUC<0.9)、较高准确性(0.9<AUC<1),AUC越接近于1,表明诊断准确性越高。Hyodo等[18]在研究乏血管少结节的慢性肝脏疾病患者发展成富血管性肝细胞癌风险因素一文中使用ROC曲线分析,结果显示后续发展成血管性结节平均增长率明显高于非血管过渡性结节。

2.2Kappa检验

Kappa检验主要用于评价不同资料间一致性程度,常用Kappa值评价一致程度。Kappa系数适用于两项和多项无序分类变量资料。在影像学试验中常需要判断多名医师测量同一研究对象或者同一医师多次测量同一对象的一致性,Kappa一致性检验便是最佳选择。Kappa检验还可通过计算Kappa值对两种非金标准的诊断方法进行诊断结果一致性分析。一般而言,评价Kappa一致性需要计算Kappa系数,但在研究考察新的诊断试验方法是否优于金标准,或者检验是否与金标准一致时,还需要计算特异度、灵敏度、阳性预测值和阴性预测值等指标。目前公认的Kappa系数分为六个区段即一致性极差(Kappa值<0),一致性微弱(Kappa值0~0.2),一致性弱(Kappa值0.21~0.40),中度一致Kappa值(0.41~0.60),高度一致(Kappa值0.61~0.80),一致性极强(Kappa值0.81~1.00)。

篇2

一、引言

数据对于当今天的商务活动具有重大的意义。数据是关于这个世界的事实,它能够说明问题、提示事实、隐含规律。一些商业机构正是通过“挖掘”数据来发现事物之间的关联性,并从中获取利润。如果人们躲避数据,就可能由于盲目接受他人对数据的概括总结而上当受骗,也可能完全依赖“感觉”来做决策,从而不利于做出正确的决策。因此,作为一门研究如何处理和分析数据的课程——统计学越来越受到各方重视。在高校中,绝大部分商科专业把统计学或商务统计作为专业必修课列入到人才培养方案中。如何学好、用好统计学成为当前许多人需要迫切解决的一个问题。美国著名的统计学家莱文(Levine)等在其撰写的统计学教科书中首次提出了DCOVA框架,用于指导学生或相关从业者如何有效学习和使用统计学。

二、基本术语

统计学是把数据转化为信息用于决策的方法或工具。例如,为了研究青年人喜欢网上购物的主要原因,可以通过调查来收集原始数据,再制作总结表来整理数据从中获得数据中隐藏的有用信息(最主要的原因是网上购物价格便宜),最后根据所获得的信息进行决策,即网店价格要比实体店便宜才能吸引青年消费者。从调查数据到总表结,就是把数据转化为信息的方法。统计方法是把数据转化信息的方法,包括统计描述方法和统计推断方法。统计描述方法主要包括收集、整理、可视化和概括数据;统计推断方法是指用样本数据得出总体结论,包括对总体参数的置信区间估计和假设检验。为了学习和使用统计学的方法,可以应用DCOVA框架。DCOVA框架包括定义数据(D)、收集数据(C)、整理数据(O)、可视化数据(V)和分析数据(A)等5个阶段(图1)。例如,为了研究一所高校学生的努力学习程度,根据DCOVA框架,首要定义数据,即找什么样的数据能够代表学生的努力学习程度,为此需要对努力学习程度开发一个可操作定义,比如用每天平均学习时长(小时)来代表一个学生的努力学习程度。其次要收集数据,可以通过问卷调查的形式收集数据。再次是整理和可视化数据,比如制作频数分布表来整理数据,从而可以查看学习时长的分布情况,制作直方图来可视化学习时长数据,从而直观形象地显现数据的分布特征,从中判断学习时长是否服从正态分布等。最后是分析数据,比如可以分析不同专业、不同性别、不同年级的学生每天学习时长均值的差异,或者估计全校学生每天平均学习时长等。DCOVA框架较好地囊括了统计学教学中主要的知识体系。

三、定义数据(D)

定义数据主要是解释收集什么数据的问题,它与一项研究的目的及其所涉及的变量相关。研究目标决定研究中所涉及的变量,相关变量决定需要收集的数据(图2)。在上述的例子中,研究目标是“研究一所高校学生的努力学习程度”,其中“努力学习程度”就是研究中需要涉及的变量。由于该变量没有直接的数据对应,需要开发一个相应的可操作定义——如每天平均学习时长,最后去收集学生每天平均学习时长的数据。

可操作定义指对所有与该分析相关的人而言很显明是普遍接受的定义,是对某个抽象变量的一种清晰、精确的表述,是对该变量意义的共同理解。努力学习程度是一个抽象变量,在收集數据时会遇到麻烦,因此需要一个可操作定义。每天平均学习时长可以作为努力学习程度的一个可操作定义,因为大家普遍认为一名学生在学习上花费的时间越多,说明该生学生越努力,并有每天平均学习时长是一种清晰、精确的表述,从而方便研究者收集相关的数据。

定义数据还包括确定所需数据的类型。数据是变量的取值,变量类型与其所对的数据类型一致。变量可以分为属性变量(如性别)和数值变量,数值变量又进一步区分为离散数值变量(如家庭人数)和连续数值变量(如身高)。相应的,数据可以分为属性数据(如男、女)和数值数据,数值数据又进一步区分为离散数值数据(如2人、3人)和连续数值数据(如1.75m、1.68m)。在SPSS中,变量的测量尺度(类型)分为名义(图标为三个小圈)和有序(图标为阶梯),这两类都属于属性数据;还有一类为标度(图标为尺子),这类属于数值数据。

四、收集数据(C)

在明确了需要什么数据的前提下,就需要进入收集数据阶段。收集数据(C)主要是解决数据的来源问题。数据的来源有原始数据来源和二手数据来源。原始数据来源主要通过调查、观察和实验获得数据;二手数据来源主要是指其他组织或个人已公布的数据。由于获得原始数据比较麻烦,所以二手数据是首选的数据来源。

在经济管理研究领域,原始数据来源主要依靠调查。由普查涉及面广、成本高、耗时长和难度大,所以一般不常用,对许多研究者来说,主要通过抽样调查来获得原始数据。因此,如何抽样就成了一个无法逃避的问题。调查数据的质量直接影响研究的价值,如果数据本身严重存在错误、偏见,不管采用什么数据分析方法,都很难得出可信的分析结果。为了从一种总体中找到一个样本,并对样本采集数据,首先要做的工作是抽样。不同的抽样方法生成不同的样本类型,如简单随机抽样方法生产简单随机样本,抽样方法与形成的样本类型一致。抽样方法分为非概率抽样和概率抽样两大类。非概率抽样包括便利抽样和判断抽样,其优点是便利、快速、低成本,可以用于前期或试探性分析,其缺点是样本的代表性一般较差,不能用于统计推断。概率抽样包括简单随机抽样、系统抽样、分层抽样和群抽样,其中简单随机抽样和系统抽样的优点是简单易行,但无法保证样本的代表性;分层抽样过程比较繁琐,但能够确保样本的代表性,并能对每个层进行分析,得出每层的结果;群抽样的优点是调查成本低,但有效性相对较差,需要增加样本容量才能达到其他抽样方法的效果。

五、整理数据(O)和可视化数据(V)

篇3

在培养目标上,两类硕士差距就更加明显了。学术型硕士要求可以进行基本的专业理论研究,有继续进行高等理论研究的素质和潜力,其中的一部分人可以继续攻读本专业及相关金融、管理、经济等相关专业的博士学位,学术性的硕士生更强调理论学习和理论基础的训练。专业学位硕士则要求较好的专业知识实用能力,了解掌握常用统计方法的思想和软件应用,实践能力强,具有分析解决带复杂数据分析背景的实际问题的潜力,强调的是学生对实际问题的处理能力,各种统计方法的综合运用及实战能力。在国外发达国家,目前均有应用统计专业学位博士,就是说将来在我们国家,优秀的应用统计专业学位硕士可以进一步攻读专业学位博士,这类博士应该对实际问题有敏锐的眼光,对各种实用的统计方法有全面的了解,知晓其长处与不足,可以解决复杂的实际数据分析问题,因此应用统计专业学位硕士的概率理论基础训练应更加倾向于实际,倾向于在统计学中大量用到的概率论知识。这就决定了对两类硕士在概率论基础知识要求方面有很大不同。在概率论基础方面,由于两类生源的本科知识体系中都是以《概率论与数理统计》课程为起点,概率论部分基本相同,内容是:概率基础及公式,随机变量及分布,随机向量及分布,数字特征及计算。在硕士生阶段应在此基础上考虑两类硕士的培养目标的差异,分别在概率基础课程中安排不一样的教学内容和重点。

篇4

科研设计包括专业设计和统计研究设计。专业设计主要包括基本常识和专业知识的正确、全面、巧妙地运用;而统计研究设计包括实验设计、临床试验设计和调查设计。值得注意的是:在很多科研人员所做的科研课题中,不仅严重忽视统计研究设计,就连专业设计也有严重错误,主要表现在犯了基本常识错误和违背专业知识错误。这类错误所发生的频率还相当高,是一种不能容忍的不正常现象!

在统计研究设计所包含的3种研究设计中,实验设计是最重要的,因为很多关键性的内容都包含在其中,其核心内容是“三要素”、“四原则”和“设计类型”。所谓“三要素”就是受试对象(或调查对象)、影响因素(包括试验因素和重要的非试验因素)和实验效应(通过具体的观测指标来体现);所谓“四原则”就是随机、对照、重复和均衡原则,它们在选取和分配受试对象、控制重要非试验因素对观测结果的干扰和影响、提高组间均衡性、提高结论的可靠性和说服力等方面将起到“保驾护航”的作用;所谓“设计类型”就是实验中因素及其水平如何合理搭配而形成的一种结构,它决定了能否多快好省且又经济可靠地实现研究目标。科研人员若对重要非试验因素考虑不周到、对照组选择不合理、设计类型选择不当或辨别不清,导致科研课题的科研设计千疮百孔、数据分析滥竽充数、结果解释稀里糊涂、结论陈述啼笑皆非。下面笔者就“实验设计”环节存在的问题辨析如下。

1 在分析定量资料前未明确交代所对应的实验设计类型

人们在处理定量资料前未明确交代定量资料所对应的实验设计,对数千篇稿件进行审阅后发现,大多数人都是盲目套用统计分析方法,其结论的正确性如何是可想而知的。这是一条出现非常频繁的错误,应当引起广大科研工作者的高度重视。

2 临床试验设计中一个极易被忽视的问题——按重要非试验因素进行分层随机化

例1:原文题目为《气管舒合剂治疗支气管哮喘的临床观察》。原作者写到:“全部病例均来源于本院呼吸专科门诊和普通门诊,随机分为治疗组40例和对照组30例。其中治疗组男21例,女19例;年龄21~55岁,平均(36.28±9.36)岁;病程2~23年,平均(10.31±17.48)年;病情轻度者16例,中度24例。对照组30例,男16例,女14例;年龄20~53岁,平均(35.78±9.53)岁;病程3~24年,平均(11.05±6.47)年;病情轻度者13例,中度者17例。两组间情况差异无显著性,具有可比性。”请问这样随机化,其组间具有可比性吗?

对差错的辨析与释疑:显然,研究者在试验设计时未对重要非试验因素采用分层随机保证各组之间的可比性。这条错误的严重程度为不可逆,出现不可逆错误意味着原作者的试验设计具有无法改正的错误,必须重做实验!究其原因,主要是原作者未理解统计学上随机的概念。统计学上随机化的目的是尽可能去掉人为因素对观测结果的干扰和影响,让重要的非试验因素在组间达到平衡。稍微留意一下原作者随机化分组,明显带有人为的痕迹,治疗组40人比对照组30人多出10人;治疗组病程的标准差17.48是对照组病程的标准差6.47的近3倍。笔者很疑惑怎样的随机化才能达到如此的不平衡?事实上随机化有4种:子总体内随机、完全随机、分层随机和按不平衡指数最小原则所进行的随机,原文条件下应当选用分层随机,即以两个重要的非试验因素(性别和病情)水平组合形成4个小组(男轻,女轻,男中,女中),然后把每个小组内的患者再随机均分到治疗组和对照组中去,这样分层随机的最终结果一定是治疗组和对照组各35人,且使2组间非试验因素的影响达到尽可能的平衡,从而可大大提高组间的可比性。在本例中,若“病程”对观测结果有重要影响,在进行分层随机化时,在按“性别”和“病情”分组的基础上,还应再按“病程”(设分为短、中、长)分组,即共形成12个小组,将每个小组中的患者随机均分入治疗组与对照组中去,这是使“性别、病情、病程”3个重要非试验因素对观测结果的影响在治疗组与对照组之间达到平衡的重要举措,也是所有临床试验研究成败与否的最关键环节!

3 实验设计类型判断错误

例2:某作者欲观察甘草酸、泼尼松对慢性马兜铃酸肾病(AAN)肾损害的干预作用,于是,进行了实验,数据见表1。原作者经过用甘草酸和泼尼松分别与同期正常对照组和模型组比较,一个P<0.05,另一个P<0.01,于是得到甘草酸、泼尼松对慢性AAN肾损害具有一定程度的保护作用,且泼尼松的效果更佳。请问原作者的结论可信吗?表1 各组大鼠血BUN及SCr变化比较(略)注:与正常对照组同期比较,*P<0.05,**P<0.01;与模型组同期比较,P<0.05,P<0.01

对差错的辨析与释疑:本例错误极为典型,通常科研工作者欲观察某种药物是否有效,习惯上会建立正常对照组、模型组(即该药物拟治疗的病态组)和在模型组基础上的用药组(如本例中甘草酸组和泼尼松组)。这样的设计本身并没有错,但这仅仅是专业上的“实验安排(可称为多因素非平衡组合实验[1])”,而并非是统计学中所说的某种标准实验设计类型。写在“组别”之下的4个组,并非是一个因素的4个水平,而是2个因素水平的部分组合。这2个因素分别是“是否建模(即正常与模型2个水平)”和“用药种类[即不用药(相当于安慰剂)、用甘草酸和用泼尼松3个水平]”。2个因素共有6种水平组合,即“组别”之下缺少了“正常基础上用甘草酸”和“正常基础上用泼尼松”。这样设计的实验才可能反映出“是否建模”与“用药种类”2个因素之间是否存在交互作用。

在本课题研究中,由于未在实验前作出正确的实验设计,处理数据时错误就悄然产生了。具体到本例,从原作者在表1的注解中可以看出,通过单因素方差分析分别比较同期(即相同观测时间点)的甘草酸组和泼尼松组与正常对照组和模型组之间的差别是否有统计学意义。这样的做法有3个严重错误:第一,严格地说,在模型组基础上的用药组是不适合直接与正常对照组相比较的,因为这样的比较解释不清到底是药物的作用还是由于模型未建成功而造成的假象;第二,将各个时间点割裂开分别比较破坏了原先的整体设计,数据利用率降低,误差估计不准确,导致结论的可信度降低。将一个重复测量实验的各个时间点割裂开来考察,就等于在各个片段上估计实验误差、作出统计推断,好像盲人摸象一样,摸出来的结果差别何其之大;第三,要想说明两种药物哪个效果更佳,在得出差别具有统计学意义的基础上,衡量的标准是应看组间平均值的差量的大小而不应看P值是否足够地小,不能说P<0.01时就比P<0.05时更有效,这种忽视实验误差、忽视绝对数量和脱离专业知识的想法和做法都是不妥当的。

如何正确处理表1中的实验资料呢?关键要正确判定该定量资料所对应的是什么实验设计类型。由前面的分析可知,表1定量资料对应的是“多因素非平衡组合实验”,而不是某种标准的多因素实验设计类型。明智的做法是对“组别”进行合理拆分,即根据专业知识和统计学知识,对“组别”之下的所有组重新进行组合,应使每种组合对应着一个标准的实验设计类型。正确地拆分结果分别见表2和表3。表2 正常对照组与模型组大鼠血BUN及SCr变化的测定结果(略)表3 模型组和2个用药组大鼠血BUN及SCr变化的测定结果(略)

事实上,由科研习惯形成的这一套实验方案笔者形象地称之为多因素非平衡的组合实验,或者说,它是实验设计的表现型。通常可以进行统计分析的都必须是标准型(即统计学上所说的某种实验设计类型),因此需要能看出代表表现型本质的原型(本例中组别之下应该有6个组,这6个组构成一个2×3析因设计结构,但原作者少设计了2个组)。通常需要将表现型或/和原型拆分成标准型后再选择合适的统计分析方法进行数据分析。本例根据原作者的意图,可以将表1拆分成2个标准型,形成2个具有一个重复测量的两因素设计定量资料,见表2和表3。相应的统计分析方法就是具有一个重复测量的两因素设计定量资料的方差分析。此处请读者注意:第一,具有一个重复测量的两因素设计定量资料的方差分析和一般的方差分析虽然都叫方差分析,但它们的计算公式却有本质区别,绝不可混用;第二,重复测量因素(本例中为时间)不要与实验分组因素(表2中叫“是否建模”;表3中叫“药物种类”)同时列入左边,它们是本质不同的两种因素,一般应该把“重复测量因素”放到表头横线下方。

通过本例可以看出,在实验前明确实验设计是多么重要的一件事情。试想,若让本例原作者写明他的实验设计类型,他必然就会对基本的实验设计类型作一番调查和学习,自然就能发现他所“设计”的实验并不是统计学上相应的实验设计。那么通过咨询相关人士必能做出比较正确的实验设计,不仅可以提高科研设计水平,而且可以大大提高科研课题和论文质量。

例3:原文题目为《土荆芥-水团花对胃溃疡大鼠黏膜保护作用的研究》。原作者使用单因素多水平设计定量资料方差分析处理表4中的数据。请问原作者这样做对吗?表4 各组黏膜肌层宽度、再生黏膜厚度变化(略)注:与正常组比较,aP<0.05;与NS组比较,bP<0.05;与CP 10 mg·kg-1 组比较,cP<0.05

对差错的辨析与释疑:本例涉及到统计学三型理论[1]中的一些概念,简单地说就是可以直接进行统计分析的来自标准设计的数据表叫标准型,反映问题本质但并非是标准型的数据表叫原型,而掩盖了原型信息的数据表叫表现型。“组别”之下的6个组,似乎是某个因素的6个水平,其实不然!这6个组涉及到多个试验因素,应对“组别”拆分重新组合后,再分别判定各种组合所对应的实验设计类型,并选用相应的统计分析方法。组合1:空白对照组(正常)、阴性对照组(NS),这是单因素两水平设计(简称为成组设计)。由于正常组无实验数据,故该组合无法进行统计分析;组合2:NS组、RA组、CP(20/mg·kg-1)组,这是单因素3水平设计,因素的名称叫“药物种类”;组合3:NS组、CP(10/mg·kg-1)组、CP(15/mg·kg-1)组、CP(20/mg·kg-1)组,这是单因素4水平设计,因素名称叫CP的剂量(其中,NS组可视为CP的剂量为0)。

对于组合2和组合3,若定量资料满足参数检验的前提条件,可选用相应设计定量资料的方差分析,否则,需要改用相应设计定量资料的秩和检验。

4 人为改变设计类型且数据利用不全

例4:某作者使用表5中的数据进行分析,欲比较治疗组和对照组在治疗后的各个时间点的疗效情况,使用的分析方法为一般卡方检验,请问原作者这样做对吗?

对差错的辨析与释疑:从给出的统计表可以看出,该作者有意或者无意之间收集了一类相当复杂的实验设计类型下的定性资料,结果变量为多值有序变量的具有一个重复测量的两因素设计定性资料,处理这个设计下收集的定性资料要使用相应设计定性资料的统计模型分析法。由于上述方法过于复杂,因此,通常在实际运用中,实际工作者将重复测量因素武断地视为实验分组因素,从而使该资料变为结果变量为多值有序变量的三维列联表资料。在已经出错的前提下,原本应当使用CMH校正的秩和检验或者有序变量的多重logistic回归分析处理资料。然而,该作者显然在此基础上进一步合并了数据,将结果变量变成二值变量(有效、无效),也就是说,原作者实际使用的仅仅是最后一列数据(即总有效率),并且最为严重的错误是将三维列联表资料强行降维成二维列联表资料,使用一般χ2检验进行分析。经过一系列的简化与错误合并,最后结论的可信度还剩下多少呢?表5 原作者对2组疗效比较的试验设计及数据表达(略)注:与对照组同期比较,*P<0.05

由于篇幅所限,这类错误笔者只给出1例,实际上此类例子在很多杂志中普遍存在。这说明在进行实验设计时,很多研究人员并未做到心中有数;分析数据时,按自己熟悉的简单统计分析方法所能解决的数据结构强硬地改造数据,严格地说,在用表格表达实验资料的那一刹那就已人为改变了资料所对应的实验设计类型,这种做法的科学性和得出结论的正确性都将受到质疑[2]。

5 正交设计及数据处理方面的错误

人们在进行正交设计和对正交设计定量资料进行统计分析时,常存在下列3个误区:很多人过分强调用正交设计可以大大减少实验次数,因此,无论各实验条件(正交表中的每一行)下的实验结果波动有多大,都不做重复实验,这是第1个误区;将正交表各列上都排满试验因素,用对实验结果影响最小的试验因素所对应的标准误作为分析其他因素是否具有统计学意义的误差项,导致误差项的自由度较小,结论的可信度较低,这是第2个误区;在对正交设计定量资料进行方差分析后,即使存在多个无统计学意义的因素,仍对少数几个有统计学意义的因素进行解释,未将无统计学意义的因素合并到误差项中去重新估计实验误差,以获得具有较大自由度的误差项,这是第3个误区。

篇5

中图分类号:F713.55文献标识码:A文章编号:1001-8409(2013)01-0074-06

“生态消费”作为可持续消费、绿色消费、适度消费等术语的同义语,其所倡导的理念及行动准则已成为包括我国在内的世界各国和地区的核心政策目标,而实现这一目标在实践上的具体要求就是提高居民的生态消费水平。寻找一个真正有效的提高生态消费水平的办法,首先要做的基础工作是将消费者进行识别分类,研究哪些消费者更趋向于进行生态消费,并对各类消费者的社会人口统计学特征、心理学特征、社会价值观和环境价值观、家庭内部生活习惯等各方面特征加以对比分析,找出其差异性,才能有针对性地提出对策建议,有效地提高居民生态消费的整体水平。

一、文献回顾

学术界对生态消费的关注源于对环境主义者消费模式的研究,这一领域的研究主要是从消费者的环境和社会价值观、社会人口统计学特征及心理学变量等方面因素对消费模式的影响展开的[1,2]。长期以来,国内外许多学者从社会人口统计学特征对生态消费行为做过大量的研究,包括年龄、性别、收入、教育、职业等变量[3~5]。尽管研究所得出的结论不同,但社会人口统计学特征却是研究并识别生态消费者的重要变量之一[6]。已有的研究多侧重于对消费者生态消费行为的影响因素进行实证研究,而鲜有对生态消费者的识别及其特征进行系统研究。本文研究的主题是城市居民生态消费者的识别。利用对哈尔滨市居民的问卷调查获得的数据,本文分3个步骤开展研究:第一步,通过因子分析确定生态消费行为识别的依据;第二步,通过聚类分析对消费者进行分类并识别生态消费者;第三步,分别从社会人口统计学特征、社会和环境价值观、心理学特征3个方面分析不同类型消费者的特征。

二、数据来源

友情链接