你好,欢迎访问云杂志! 关于我们 企业资质 权益保障 投稿策略
咨询热线:400-838-9661
当前位置: 首页 精选范文 数据分析方向

数据分析方向范文

发布时间:2023-09-28 10:30:33

导语:想要提升您的写作水平,创作出令人难忘的文章?我们精心为您整理的13篇数据分析方向范例,将为您的写作提供有力的支持和灵感!

数据分析方向

篇1

1引言

新媒体营销是随着互联网技术不断发展而衍生的重要产物,它是以移动平台为载体,以信息技术为桥梁而实现的企业网络市场竞争的过程。这种模式的出现意味着企业与现代科学技术的接轨,是企业智能化数据化发展的鲜明体现。企业在新媒体平台和技术的指导下,能够依靠各类先进技术,转变自身的发展方式。其中最为突出的应用便在于企业对数据分析的引进。

2分析数据,确立市场受众群体

企业要想在众多新媒体平台营销中脱颖而出,就必须掌握符合自身市场定位的消费群体,要让自身生产的产品能够有广泛的接受度,要取得属于自身独有的市场信任感和公信力。这也就意味着企业要主动出击,积极地吸引消费者群体的关注和重视。如果一个企业发展自身新媒体营销的方法,仅仅是通过水军或者是买来的粉丝,或者是通过转发抽奖等,那么这个企业只会在短时间内取得一定的爆发式关注,无法取得长远的市场利益,也没有办法真正的给消费者留下深刻的印象,自然也不能根据消费者的喜好和兴趣制订出针对性的市场营销方案。这就需要企业通过数据分析的方法来明确自身的受众群体。[1]首先,企业要用数据分析的方法,对自身已有的市场发展基础进行系统的分析和总结,整理出自身的市场定位和发展特点,包括品牌形象、竞争优势、产品性质等。在此基础上,大致地规划消费者的群体范围,制订相应的宣传方案和宣传规划,同时也要注意把握时间的限制,要尽可能地寻求时间和效益之间的平衡。在这一过程中,企业要按照消费者的点击喜好和频率,来制定有针对性的宣传模式,这样可以更为有效地吸引消费者的关注。其次,企业要重视用户之间的传播和转发,企业要在吸引一批粉丝的基础上适当地进行转发和抽奖活动,扩大自身的市场影响力。最后,企业也要在这一过程中精确自身的市场定位,要动态地观察宣传的成果和绩效,要寻找大众的认同感。这便要求企业要借助数据分析和检索的平台,搜索与自身宣传相关的信息确立关键词和重点语句,并分析大众对于自身的评价和看法,更好地改进营销中存在的缺陷和不足。同时要在此基础上,让自身的宣传内容更加量化和准确,更好地提升在用户之间的口碑。

3分析数据,确立市场营销载体

根据上文所述,企业在新媒体营销中所进行的宣传是离不开固定的平台和载体的,移动平台是企业信息和展现自身形象的基础与保障。因此,企业要十分重视自身新媒体营销工具的选择,要运用数据分析的方法精准地统筹和管理市场营销的信息,推动网络营销能够适应自身发展的特点和规律。同时,数据分析方法还可以把企业自身经营的特点与不同的新媒体平台进行融合,对比其结合后的实际效益和成果,同时也可以与事先的市场规划设计相比较,在此基础上选择最为合适的企业新媒体营销载体。[2]之所以运用数据分析的方法来选择企业新媒体营销载体,是因为现阶段网络企业的发展形式多种多样,不同的企业也有自身不同的市场定位和产品特点,彼此之间相互独立,但是也紧密联系。这也就意味着,各类企业在共同运用新媒体网络平台这一方法进行市场营销的同时,也要根据自身的发展特点来选择适合自己的宣传载体和工具,只有这样才可以促进宣传内容的有效传播。当下企业利用新媒体进行宣传的主要形式包括纪录片、文字和图像等,也可以是多种表现形式的结合。尽管在宣传方式上具有多样性,但是否能真正的起到吸引用户的作用还需要依靠用户的主观能动性。这就要求企业在选择好自身营销载体的基础上,利用后台运行接收数据信息的方法,分析用户点击频率最多的板块和内容,总结出现阶段自身市场发展应当跟随的主流趋势,以及分析当下营销平台运行的成果。例如当下的微博小程序,就是企业依靠文字推送或者视频的方式,与用户建立线上的交流和沟通,在此基础上根据用户的点击频率来制订出更有针对性的市场营销方案。

4分析数据,确立信息展示模式

现阶段,有许多企业建立了自身运营的自媒体平台,有相当一部分是需要用户下载相应的软件,并注册账号才可以获得相关的信息。用户在注册之后,便可以通过在移动端登录的方法来完成后续操作。[3]但也正是因为这种登录方法的存在,用户会获得比其他平台更多的市场信息。这就在一定程度上激发了用户的厌烦心理,有相当一部分用户会由于时间的限制,直接略过企业所的信息。同时,也有一部分企业将自身的信息运用网页链接或者是二维码的方式展现出来,用户必须要在登录网站的基础上再一次点开网页链接,这就会让用户觉得浏览信息是一件非常烦琐的事情。因此,企业要重视自身信息展现形式的转变,企业要尽可能地选择简洁明了的形式突出自身信息的重点,要让用户可以看到自身营销的优势和特点。企业可以用数据分析的方法,统计出用户容易接受的信息展现形式,并按照类别进行划分。当下,用户容易接纳的是企业图文并茂的信息展现形式,可以是图片和文字链接的结合,也可以是视频和文字链接的结合,或者是将链接安置在图片上。企业就可以根据用户的喜好,将自身内容展现的形式进行改革和优化,例如企业可以将市场经营的方向和产品的性能,利用形象化的图片展示出来。让用户可以一眼就看到自身的品牌特色,提高自身的吸引力。在这一过程中企业要意识到信息真实准确表达的重要性,企业可以在原有的基础上进行适当地渲染和润色,但是不能虚假信息,不能夸大其词,不能让用户接受错误且夸张的市场营销数据。

5分析数据,确定市场发展价值

篇2

中图分类号:TP 311.3 文献标志码:A 文章编号:1672-8513(2011)03-0182-03

The Application of Correlation Analysis Algorithms in the Data Invites Chien

ZHANG Hanyun,DUAN Peng

(School of Mathematics and Computer Science,Yunnan University of Nationalities,Kunming 650031,China)

Abstract: The data warehouse was constructed by using the mass data of computer science majors’ scores generated during the past three years in thirteen classes of four grades, we analyze the corresponding degree of different courses in the database using corresponding analyzing techniques, and condense the attributes in database according to corresponding factors, An example is given to illustrate the application of the proposed method. The analysis introduced in the paper has provided a scientific basis for improving the teaching quality .Then it is prepare for the Association rules mined of different courses.

Key words: data mining;data warehouse; correlation analysis

相关分析法是在分析某个问题或指标时,将与该问题或指标相关的其他问题或指标进行对比,分析其相互关系或相关程度的一种分析方法,用少数几对综合变量来反映2组变量间的线性相关性质.目前它已经在众多领域的相关分析和预测分析中得到广泛应用.本文主要研究如何利用相关分析技术产生计算机专业课之间的相关系数,发现专业课程之间的相关度,对数据仓库中的数据进行约简[1].

1 相关分析

1.1 相关分析概述[2]

相关分析(Correlation Analysis)是研究随机变量之间的相关关系的一种统计方法.相关关系是一种非确定性的关系,例如,以X和Y分别记一个人的身高和体重,或分别记每公顷施肥量与每公顷小麦产量,则X与Y显然有关系,而又没有确切到可由其中的一个去精确地决定另一个的程度,这就是相关关系.例如,教育投资与教育发展速度的关系、教师教学水平和学生的学习效果之间的关系等[3].

相关系数值为-1(完全负相关关系)~+1(完全正相关关系)之间,相关系数为0时,表示不存在相关关系.例:

正相关:学生的学习能力与学习成绩的关系;

负相关:教师的身体状况与缺勤率的关系;

零相关:教师的身高与教学能力的关系.

Pearson相关用于双变量正态分布的资料,其相关系数称为积矩相关系数(Coefficient of Product-Moment Correlation).进行相关分析时,我们一般会同时对2变量绘制散点图,以更直观地考察2变量之间的相互变化关系[4].

用Flag Significant Correlations 进行显著性检验,标出有显著性意义的相关系数,用一个星号“*”标记在α=0.05水平上有显著性意义的相关系数;用2个星号“**”标记在α=0.01水平上有显著性意义的相关系数[5].

1.2 相关分析的表示方法

进行相关分析的主要方法有图示法和计算法.图示法是通过绘制相关散点图来进行相关分析,计算法则是根据不同类型的数据,选择不同的计算方法求出相关系数来进行相关分析.

1.2.1 图示法

图示法的具体做法就是绘制相关散点图.相关散点图是观察2个变量之间关系的一种非常直观的方法.具体绘制的方法是:以横轴表示2个变量中的1个变量(作为自变量),以纵轴表示另一个变量(作为因变量).将2个变量之间相对应的变量值以坐标点的形式逐一标在直角坐标系中,通过点的分布形状和疏密程度来形象描述2个变量之间的相关关系.

相关散点图可以通过手工绘制而得到.但如果面对的变量值比较多,手工绘制的过程既费时,又不够精确.

1.2.2 计算法

相关系数也称为相关量,是用来描述变量之间变化方向和密切程度的数字特征量,一般用r表示.它的数值范围在-1到+1之间,它的正负号反映变量之间变化的方向;它的绝对值的大小反映变量之间关系的密切程度.

根据2个变量变化的密切程度,我们把相关关系分为完全相关、高度相关、中度相关、低度相关、零相关[6].

完全相关:│r│=1的相关;

高度相关或强相关:0.7≤│r│<1的相关;

中度相关:0.4≤│r│<0.7的相关;

低度相关或弱相关:│r│<0.4的相关.

1.3 Pearson相关

Pearson相关也称积差相关,积差相关也称积矩相关,是英国统计学家Rearson提出的一种计算直线相关的方法,因而又称为Rearson相关[6-7].

积差相关系数是2列成对观测值中各对观测值的标准分数乘积之和除以观测值对数所得之商[8].

1.3.1 Pearson相关的使用条件

1) 2个变量之间是线性关系,都是连续数据;

2) 2个变量的总体是正态分布,或接近正态的单峰分布;

3) 2个变量的观测值是成对的,每对观测值之间相互独立.

1.3.2 Pearson相关的计算公式

r=∑ZXZYn=∑X-Y-nσXσY.

式中,[ZK(]n表示数据的对数;σX,σY分别表示X和Y变量的样本标准差;[JP],分别表示X和Y变量的样本平均数.[ZK)]

对于学生成绩,其课程总体分布接近正态分布,满足Pearson相关的使用条件.在统计软件SPSS中,可以很方便地得出2变量之间的Pearson相关系数.[JP]

2 用相关分析法进行数据约简

2.1 学生成绩数据仓库的建立

数据选择上,主要选择了作者所在学校计算机专业3年来产生的专业基础课成绩,收集并整理了包含高等数学、C语言、数据结构和数据库系统原理的504条学生成绩数据.并将具体的成绩数据离散化为4个等级[9],即:

成绩>=80“A”; 70=

2.2 用相关分析法进行数据约简

对大规模数据库内容进行复杂的数据分析通常需要耗费大量的时间,这就常常使得这样分析变得不现实和不可行,尤其是需要交互式数据挖掘时.数据约简技术正是用于帮助从原有庞大数据集中获得一个精简的数据集合,并使这一精简数据集保持原有数据集的完整性,这样在精简数据集上进行数据挖掘,显然效率更高,并且挖掘出来的结果与使用原有数据集所获得结果基本相同[10].

数据约简并不是一个新的领域,现在已经提出了很多理论和方法,如:层次分析法,主成分分析法,随机抽样、免疫算法等.本研究根据实际需要,提出将相关分析方法应用于学生成绩的属性约简,即方便快捷又不失理论性.

在SPSS软件中,画出计算机专业课高等数学成绩的直方图,如图1.

用同样的方法,可以画出其他计算机专业课如C语言、数据结构等的直方图,可以看出,我们所建立的数据仓库中,学生计算机专业课程成绩基本上符合正态分布,满足Pearson相关的使用条件.

我们用双变量相关分析技术来分析相关课程之间的关联程度,并做出统计学推断,以最少的数据量反映最大的信息量,进而对数据库的属性进行约简.通过相关分析约简相关性较弱的属性,选择相关性强的属性而不直接利用数据库中的所有属性,从而减少大量冗余属性,以提高算法的效率.

在SPSS中进行课程间Pearson相关系数分析,得到计算机专业课程相关系数分析表如表1.

1:表中数值为4门课程进行相关分析得到的皮尔逊相关系数(Pearson Correlation)、相伴概率(Sig.(2-tailed))、样本个数(N).“*”标记在α=0.05水平上有显著性意义的相关系数;用两个星号“**”标记在α=0.01水平上有显著性意义的相关系数;

2:相伴概率用来判断求解线性关系的两变量之间是否有明显的线性关系.一般将这个Sig值与0.05相比较,如果它大于0.05,说明平均值在大于5%的几率上是相等的,而在小于95%的几率上不相等;如果它小于0.05,说明平均值在小于5%的几率上是相等的,而在大于95%的几率上不相等;如C语言与数据结构的Sig是0,此数值说明C语言与数据结构有显著的线性关系(因为Sig0.05,则说明两变量之间没有明显的线性关系).

由表1可以看出,同一门课程之间的Pearson相关系数为1,是完全相关关系.高等数学与C语言之间的Pearson相关系数为0.283,C语言与数据结构之间的Pearson相关系数为0.281,数据结构与数据库系统原理之间的Pearson相关系数为0.565,并且都有“*”标记,由此可以推断这4组课程之间有显著性意义的相关性.

3 结语

用相关分析技术对数据库进行约简,结果表明:线性代数、计算机导论及Pascal语言等多个因素相关性较弱;而C语言、数据结构、高等数学及数据库系统原理之间相关性较强,根据数据库约简原则,可将线性代数、计算机导论及Pascal语言等多个属性项从数据库中删除,以便提高数据挖掘效率.

参考文献:

[1]段西凌,甘开鹏.数据挖掘在人口普查信息系统中的应用[J].云南民族大学学报:自然科学版,2006,15(2):170-172.

[2]茆诗松.统计手册[M].北京:科学出版社,2003.

[3]TANG Zhaohui,MACLENNAN J.数据挖掘原理与应用[M]. 邝祝芳,焦贤龙,高升,译.北京:清华大学出版社,2007.

[4]王艳.数据挖掘中关联规则的探讨[J].成都信息工程学院学报,2004,19(2):173.

[5]张儒良,王翰虎.论数据挖掘优化教学管理[J].贵州民族学院学报,2004:133.

[6]赵辉.数据挖掘技术在学生成绩中分析中的应用[D].大连:大连海事大学,2007.

[7]王月敏.基于遗传算法的智能组卷系统研究[J].云南民族大学学报:自然科学版,2009,18(2):173-176.

[8]刘利锋,吴孟达. 关联规则的快速提取算法 [J].计算机工程.2008,34(5):63-65.

[9]李萍,段富.数据挖掘中数据约简的研究与应用[J].微计算机应用.2009,25(2):58-60.[ZK)]

[10][ZK(#]蔡勇,韩永国,刘自伟.数据挖掘技术在生源分析中的应用研究[J].计算机应用研究.2004,32(6):48-51.

篇3

1.1对房屋建筑结构产生的误区

人们根据房屋建造用料情况和建筑结构不同,主观上把商品房分为砖混结构的和框架结构的。另外,对钢筋混凝土结构(简称钢混结构)的概念和前两个概念搅在一起。在建筑学上,按建筑结构的材料分类,把建筑物分为砖木结构、砖混结构、钢筋混凝土结构和钢结构。而框架结构是按建筑物承重方式分类中的一种,另外还有承重墙结构、排架结构等。砖混结构和框架结构虽然是按不同标准分类的,但建筑学上钢筋混凝土结构和框架结构是同一的。也就是说钢筋混凝土结构就是框架结构,两者可以同时使用。

1.2对房屋建筑高度的认识误区

人们普遍认为6层(不包括隔热层)以下的为多层,而把6层以上的统统称为多层。建筑学上有更明细的分类,一般把两层及两层以下叫做低层,把两层以上8层以下叫做多层,8层以上16层以下为中高层,16层以上24层以下为高层,24层以上称为超高层。

2.房屋建筑结构与居住舒适度关系分析

2.1房屋进深长度对居住舒适度的影响

大多数人喜欢购买开阔进深长的房屋,其实这样的房屋并不好。在建筑学中,住宅的进深是指一间独立的房屋或一幢居住建筑内从前墙的定位轴线到后墙的定位轴线之间的实际长度。为了保证住宅具有良好的天然采光和通风条件,从理论上进,住宅的进深不宜过大。在住宅的高度(层高)和宽度(开间)确定的前提下,住宅进深过大,就使住房成狭长型、距离门窗较远的室内空间自然光线不足;如果人为地将狭长空间分隔,则分隔出的一部分房间就成为无天然光的黑房间。黑房间当然不适于人们居住,补救的措施之一是将黑房间用于次要的生活功能和设施安置,如储藏室、走道等,用人工照明来弥补天然光的不足。 这样无形中增加了住户电力的消耗。

2.2楼层高度对居住舒适度的影响

人民根据生活经验和普通常识认为,住得越高离地面越远,噪音也越小。实际情况是,根据声音在多高层建筑群中的传播反射原理,对于中高层建筑,噪音最大的在6-13层,而其他层噪音则相对较小。实际中根据楼盘层高不同还有区别,购房者需要根据情况实地考察,以确定噪音的大小。

2.3光线方位对居住舒适度的影响

很多购房者买房的时候往往喜欢选择一单元中东边的房子,因为中国地理位置在北半球,夏季晴天西边太阳使人感觉屋里非常闷热。西晒是人们购房中首先回避的因素。其实,以建筑学的视角来看,西边的房屋反而更有优势,因为东边的房屋早上阳光虽好,但光线太强反而影响人的睡眠。西边的房子光照时间长,可以有效杀灭室内空气中的细菌,冬季温度也相对东边房子暖和。

2.4落地窗设计对居住舒适度的影响

现阶段,落地窗称为时尚,不仅美观漂亮,而且使室内光线也充足。但是,大面积的落地窗,很容易让房间变成“微波炉”,如果不使用隔热保温材料,将会使室内光线太强,夏季温度太高,浪费空调资源。所以,不宜将所有窗户都改为落地窗,适当保留带有墙面的窗户。

2.5房屋建筑结构对居住舒适度和安全度的影响

篇4

EH4电磁成像系统数据处理技术在实际应用中普遍存在处理流程封闭、局限性大以及去噪手段单一等方面的问题。同时,在数据处理过程中一定程度上会受到噪声以及干扰等方面因素的影响,降低数据分析结果的可信度。虽然可以采用延长观测时间、提高发射功率以及增加叠加次数等手段对干扰进行控制,然而在强干扰噪声的控制方面还缺乏深入的研究,本文对以上方面的问题提出相关的解决建议。

一、EH4电磁成像系统概述

(一)大地电磁测深基本理论

由于不同地质条件下的电性存在明显的差异,可以采用对平次电磁场的响应差异来对地下电阻率进行计算,对地下地质情况进行推演。所涉及到的声源包含人工场源与天然场源两种。

大地电磁测深工作在操作理论上以平面电磁波为基础。由于变化的磁场与变化的电场无法单独存在,二者之间有着十分密切的联系,变化磁场与自由电荷能够激发出电场,变化的电场与稳定的电流也能够产生相应的磁场,在某一特定的空间中,变化的磁场能够激发出涡旋电场,同时涡旋磁场也能够在变化电场的作用下被激发出来。

高频大地电磁法的荼频率范围为101~105Hz,该状态下相比于传导电流来说,导电介质中的电流非常小,因此,导电介质中所存在的电流可以忽略不计。经实验研究发现,EH4电磁成像技术所涉及到的个线极化波包含TE波与IM波两种。其中TM波指是与电磁波传播方面相同的电场分量,该分量方面垂直于电磁波方面。TE波指的是与电磁波传播方面相同的磁场分量,该分量垂直于电磁波方向。通常情况下我们将这两种波称为E偏振波与H偏振波。

(二) EH4电磁成像系统

EH4电磁成像系统是一种高分辨率、便携式的混合源电磁法仪器,能够对两种场源数据进行高精确度的采集。在高频模式中,以天然场信号不强的条件下,可以用人工场源来代替天然场信号。在具体的操作过程中,可以交错使用高低频磁挥拳来探测不同深度的地质体。

(三) EH4数据处理

1. FFT时频转换

EH4数据处理工作的第一步就是时频转换,通过该技术能够将Y文件调整为频率域文件。时间序列中含有大量的组数据,每组由Hx(t)、Ey(t)、Hy(t)与Ex(t)四部分数据所构成,数据组在类型上包含三种,不同种类所处理的数据类型各不相同。

由于大地电磁信号在采集时间上没有任何的限制,需要进行加窗理,避免出现截断效应。再完成离散FFT变换操作后,能够获取2048个离散频段数据。

2.功率谱估算

依照信号分析理论的有关内容,可以采用频谱计算的方式醚对功率谱进行计算。为了对估算过程中可能存在的各种误差进行控制,需要根据频率平滑与总体平滑来完成原始功率谱的平滑估算工作。

3.阻抗张量估算

阻抗文件中包含阻抗、相关度、相位以及电阻率等方面的数据,阻抗张量要素能够体现出大地电磁场与介质电性分布之间的关系,表面阻坑张量要素能够体现出阻抗相位与视电阻率两个方面的数据。设计人员可以通过最小二乘法对相关数据进行估算,所使用的具体理论为通过理论值与测量值之间的最小残差和对抗张量要素进行计算。

二、EH4时间哉非平稳数据的剔除

本次实验研究纳入的平稳性概念,对于一级平稳数据来说,该数据的统计一定需要建立再正常抽样的基础之一,在一定统计范围内其统计学特征是不断变化的,相应地在一定范围内其方差值也是不断变化的。

由于EH4在数据样本的采集环节中可能会受到环境噪声与观测噪声等因素的干扰,一定程度上会出现时间域数据不平稳的问题,通过对初始数据进行FFT变换处理,能够得到Y文件,而在这一处理过程中所采用的数据必须是平稳数据,这就需要对所需要的初始数据进行处理,经过处理之后的数据可能会存在数值被扩大的问题,因此,需要采用平稳性检测的方式对时间哉数据的平稳性进行严格的检测。

本次实验研究所采用的检测方法为游和检测法,部分情况下也被称为边检验法,该检测方法不需要各种实验参数进行支持,在检测技术上,该检测方法与轮次法基本相同。游程检法的优势主要体现在平稳性效果优良,能够提高数据质量。

在EH4检验过程中,部分操作人员同可以会利用IMAGEM 软件来删除跳点,对非平稳点进行简单的支除处理,然而这种去除方法可能会引发遗漏数据以及误删等方面的问题,因此不提倡使用这种数据处理方法。本文重点介绍小波分析法。

小波分析法是建立在调和分析、样条分析、Fourier分析与泛涵分析基础之间的重要分析工具,部分情况下也被称为多分辨分析。该分析方法的应用范围比较广泛。由于该分析方法在空间频率与时间频率方面对于信号能够进行多尺度的分析,在去噪声方面有着比较突出的应用优势,在非平稳信号的处理方面也能够得到比较好的处理结果。

参考文献:

篇5

(Xuzhou College of Industrial Technology,Xuzhou 221140,China)

摘要:在虚拟现实项目制作中,由于种种原因,海量数据处理是一项艰巨而复杂的任务,本文主要论述了海量数据处理困难的原因,并提出了对海量数据进行处理的方法。

Abstract: In the virtual reality project production, due to various reasons, mass data processing is a difficult and complex task. This paper discusses the reasons for massive data processing difficulties, and provides methods for massive data processing.

关键词:虚拟现实 海量数据

Key words: virtual reality;massive data

中图分类号:TP39 文献标识码:A文章编号:1006-4311(2011)19-0158-02

0引言

虚拟现实项目制作过程中,由于虚拟现实包含的内容丰富,需要载入的数据量有时会非常巨大,需要进行处理和查询的内容很多,然后还要以文字和图像的形式进行表示出来,所以经常会遇到海量数据处理的瓶颈,造成这种情况的原因是:

①数据量过大,数据中什么情况都可能存在。如果说有10条数据,那么大不了每条去逐一检查,人为处理,如果有上百条数据,也可以考虑,如果数据上到千万级别,甚至过亿,那不是手工能解决的了,必须通过工具或者程序进行处理,尤其海量的数据中,什么情况都可能存在,例如,数据中某处格式出了问题,尤其在程序处理时,前面还能正常处理,突然到了某个地方问题出现了,程序终止了。

②软硬件要求高,系统资源占用率高。对海量的数据进行处理,除了好的方法,最重要的就是合理使用工具,合理分配系统资源。一般情况,如果处理的数据过TB级,小型机是要考虑的,普通的机子如果有好的方法可以考虑,不过也必须加大CPU和内存,就象面对着千军万马,光有勇气没有一兵一卒是很难取胜的。

③要求很高的处理方法和技巧。这也是本文的写作目的所在,好的处理方法是一位工程师长期工作经验的积累,也是个人的经验的总结。没有通用的处理方法,但有通用的原理和规则。

在多个虚拟现实项目的基础上,尤其是通过与行内多名专家进行项目经验交流,以下的方法都可以对海量数据在虚拟现实项目中的处理进行改善。

1选用优秀的数据库工具

现在的数据库工具厂家比较多,对海量数据的处理对所使用的数据库工具要求比较高,一般使用Oracle或者DB2,微软公司最近的SQL Server 2005性能也不错。另外在BI领域:数据库,数据仓库,多维数据库,数据挖掘等相关工具也要进行选择,象好的ETL工具和好的OLAP工具都十分必要,例如Informatic,Eassbase等。笔者在实际数据分析项目中,对每天6000万条的日志数据进行处理,使用SQL Server 2000需要花费6小时,而使用SQL Server 2005则只需要花费3小时。

2编写优良的程序代码

处理数据离不开优秀的程序代码,尤其在进行复杂数据处理时,必须使用程序。好的程序代码对数据的处理至关重要,这不仅仅是数据处理准确度的问题,更是数据处理效率的问题。良好的程序代码应该包含好的算法,包含好的处理流程,包含好的效率,包含好的异常处理机制等。

3对海量数据进行分区操作

对海量数据进行分区操作十分必要,例如针对按年份存取的数据,我们可以按年进行分区,不同的数据库有不同的分区方式,不过处理机制大体相同。例如SQL Server的数据库分区是将不同的数据存于不同的文件组下,而不同的文件组存于不同的磁盘分区下,这样将数据分散开,减小磁盘I/O,减小了系统负荷,而且还可以将日志,索引等放于不同的分区下。

4建立广泛的索引

对海量的数据处理,对大表建立索引是必行的,建立索引要考虑到具体情况,例如针对大表的分组、排序等字段,都要建立相应索引,一般还可以建立复合索引,对经常插入的表则建立索引时要小心,笔者在处理数据时,曾经在一个ETL流程中,当插入表时,首先删除索引,然后插入完毕,建立索引,并实施聚合操作,聚合完成后,再次插入前还是删除索引,所以索引要用到好的时机,索引的填充因子和聚集、非聚集索引都要考虑。

5建立缓存机制

当数据量增加时,一般的处理工具都要考虑到缓存问题。缓存大小设置的好差也关系到数据处理的成败,例如,笔者在处理2亿条数据聚合操作时,缓存设置为100000条/Buffer,这对于这个级别的数据量是可行的。

6加大虚拟内存

如果系统资源有限,内存提示不足,则可以靠增加虚拟内存来解决。笔者在实际项目中曾经遇到针对18亿条的数据进行处理,内存为1GB,1个P4 2.4G的CPU,对这么大的数据量进行聚合操作是有问题的,提示内存不足,那么采用了加大虚拟内存的方法来解决,在6块磁盘分区上分别建立了6个4096M的磁盘分区,用于虚拟内存,这样虚拟的内存则增加为4096*6+1024=25600M,解决了数据处理中的内存不足问题。

7分批处理

海量数据处理难因为数据量大,那么解决海量数据处理难的问题其中一个技巧是减少数据量。可以对海量数据分批处理,然后处理后的数据再进行合并操作,这样逐个击破,有利于小数据量的处理,不至于面对大数据量带来的问题,不过这种方法也要因时因势进行,如果不允许拆分数据,还需要另想办法。不过一般的数据按天、按月、按年等存储的,都可以采用先分后合的方法,对数据进行分开处理。

8使用临时表和中间表

数据量增加时,处理中要考虑提前汇总。这样做的目的是化整为零,大表变小表,分块处理完成后,再利用一定的规则进行合并,处理过程中的临时表的使用和中间结果的保存都非常重要,如果对于超海量的数据,大表处理不了,只能拆分为多个小表。如果处理过程中需要多步汇总操作,可按汇总步骤一步步来,不要一条语句完成,一口气吃掉一个胖子。

9优化查询SQL语句

在对海量数据进行查询处理过程中,查询的SQL语句的性能对查询效率的影响是非常大的,编写高效优良的SQL脚本和存储过程是数据库工作人员的职责,也是检验数据库工作人员水平的一个标准,在对SQL语句的编写过程中,例如减少关联,少用或不用游标,设计好高效的数据库表结构等都十分必要。笔者在工作中试着对1亿行的数据使用游标,运行3个小时没有出结果,这是一定要改用程序处理了。

10使用文本格式进行处理

对一般的数据处理可以使用数据库,如果对复杂的数据处理,必须借助程序,那么在程序操作数据库和程序操作文本之间选择,是一定要选择程序操作文本的,原因为:程序操作文本速度快;对文本进行处理不容易出错;文本的存储不受限制等。例如一般的海量的网络日志都是文本格式或者csv格式(文本格式),对它进行处理牵扯到数据清洗,是要利用程序进行处理的,而不建议导入数据库再做清洗。

11定制强大的清洗规则和出错处理机制

海量数据中存在着不一致性,极有可能出现某处的瑕疵。例如,同样的数据中的时间字段,有的可能为非标准的时间,出现的原因可能为应用程序的错误,系统的错误等,这是在进行数据处理时,必须制定强大的数据清洗规则和出错处理机制。

12建立视图或者物化视图

视图中的数据来源于基表,对海量数据的处理,可以将数据按一定的规则分散到各个基表中,查询或处理过程中可以基于视图进行,这样分散了磁盘I/O,正如10根绳子吊着一根柱子和一根吊着一根柱子的区别。

13避免使用32位机子

目前的计算机很多都是32位的,那么编写的程序对内存的需要便受限制,而很多的海量数据处理是必须大量消耗内存的,这便要求更好性能的机子,其中对位数的限制也十分重要。

14考虑操作系统问题

海量数据处理过程中,除了对数据库,处理程序等要求比较高以外,对操作系统的要求也放到了重要的位置,一般是必须使用服务器的,而且对系统的安全性和稳定性等要求也比较高。尤其对操作系统自身的缓存机制,临时空间的处理等问题都需要综合考虑。

15使用数据仓库和多维数据库存储

数据量加大是一定要考虑OLAP的,传统的报表可能5、6个小时出来结果,而基于Cube的查询可能只需要几分钟,因此处理海量数据的利器是OLAP多维分析,即建立数据仓库,建立多维数据集,基于多维数据集进行报表展现和数据挖掘等。

16使用采样数据,进行数据挖掘

基于海量数据的数据挖掘正在逐步兴起,面对着超海量的数据,一般的挖掘软件或算法往往采用数据抽样的方式进行处理,这样的误差不会很高,大大提高了处理效率和处理的成功率。一般采样时要注意数据的完整性和,防止过大的偏差。笔者曾经对1亿2千万行的表数据进行采样,抽取出400万行,经测试软件测试处理的误差为千分之五,客户可以接受。

还有一些方法,需要在不同的情况和场合下运用,例如使用键等操作,这样的好处是加快了聚合时间,因为对数值型的聚合比对字符型的聚合快得多。类似的情况需要针对不同的需求进行处理。

海量数据是发展趋势,对数据分析和挖掘也越来越重要,从海量数据中提取有用信息重要而紧迫,这便要求处理要准确,精度要高,而且处理时间要短,得到有价值信息要快,所以,对海量数据的研究很有前途,也很值得进行广泛深入的研究。

参考文献:

篇6

中图分类号 P415.12 文献标识码 A 文章编号 1007-7731(2017)07-0156-03

Abstract:Aiming at meteorological station with new automatic station and original station,when the meteorological data is abnormal or shortage,the data processing methods were summarized in order to play a guiding role in the daily work of the station.

Key words:Automatic station;Abnormal data;Processing method

随着地面气象观测自动化业务的不断发展,新型自动站在山东省气象台站陆续安装使用,与台站已运行的老自动站实现双轨运行,使观测业务更趋向于全自动化。临沂市观测站于2015年12月1日正式运行DZZ4新型自动站和ISOS地面气象综合业务系统软件,实现了以新型自动站(DZZ4型)为主,老自动站(CAWS600-B型)为备份的双轨运行方式。自动观测项目有气温、相对湿度、气压、风向风速、降水、0~360cm地温、能见度等,气温、相对湿度、气压、风向风速、地温等各观测要素人工观测仪器已按规定撤除,在新型站仪器故障或数据异常时,可以用备份站数据代替。

1 异常数据的判断

日常观测值班时,应每1h查看自动站数据,并与备份自动站观测数据进行对比,当发现某要素数据相差较大时,应及时检查数据是否有异常。也可以查看SMO软件采集界面观测要素的连续曲线图,判断分钟数据是否正常。在采集界面各要素的显示数据右边,有曲线图标,分别点击就可以看到对应数据的2h内变化曲线,据此可以判断数据变化是否正常连续。还可通过ASOM系统判断异常数据。登陆综合气象观测系统运行监控平台,点击运行监控-数据监控-多站单要素曲线图,选择需要对比台站的时间范围、添加需要对比的台站,再选择对比的要素,点击查询即可弹出对比台站所选要素的曲线图,如果各台站曲线图变化一致,说明数据正常,如果本站曲线明显偏高或偏低,或曲线有明显的急升急降现象,则判断为异常数据。

2 异常记录处理原则[1]

(1)白天正点记录异常时,3次定时观测时次(指08:00、14:00、20:00)的记录应及时处理,其他正点时次的记录应在下一定时观测前完成修改、上传。夜间正点记录异常时,应在当日10:00前完成修改上传。若夜间异常数据影响到08:00、09:00记录,应在10:00前对08:00、09:00相应记录进行修改上传。

(2)已实现自动观测的气温、相对湿度、风向、风速、气压、地温记录异常时,正点时次的记录按照正点前10min内(51-00分)接近正点的正常记录、正点后10min内(01~10分)接近正点的正常记录、备份自动站记录、内插记录的顺序代替。其中风向风速异常时均不能内插,瞬时风向、风速异常时按缺测处理。

(3)o自动记录可代替时,仅在定时观测时次正点后10min内,对气温、相对湿度、风向、风速、气压、降水、能见度、地温(草温除外)进行人工补测,其他时次按缺测处理。若某要素人工观测仪器已按规定撤除或超过正点后10min,则该要素不再人工补测。

(4)分钟数据异常时均缺测处理,不内插,不用备份自动站记录代替。因分钟数据异常造成加密数据文件错误时,加密数据文件不做订正处理。

(5)连续2个或以上时次数据缺测时,不能内插,仍按缺测处理。内插可以跨日界。

(6)自动站每1h正点数据与分钟数据不一致时,一般维持原记录。若确认正点数据有误,可用该正点的分钟数据代替,若确认正点的分钟数据有误,可用正点值代替。

(7)4次平均值和24次平均值可以互相代替。

(8)自动站降水量、日照时值有缺测时,日总量按缺测处理。

(9)各异常记录的处理情况应在备注栏注明,并在MDOS系统平台中填报。

3 具体要素异常的处理

3.1 气温和相对湿度 (1)气温缺测相对湿度正常时,水汽压和露点温度用前/后10min、备份站代替或内插求得的代替后气温与自动站相对湿度进行反查求得。(2)自动站相对湿度缺测而气温正常,需用自动站气温与代替后的相对湿度进行反查求得水汽压和露点温度。(3)气温与湿度均缺测时,用前/后10min数据或备份站数据或内插记录的顺序代替气温、相对湿度,并反查水汽压、露点温度,不能代替时,均按缺测处理。以上数据用前/后10min数据代替时,在正点观测编报界面,点击观测时间下面的“代缺”,出现“正点前/后10min自动观测数据”,如图1,双击需要代替的气温或相对湿度分钟数据栏,点替换即可。用备份站数据或内插记录代替时,在正点观测编报界面,输入备份站正点数据或内插记录即可,替换或修改后的数据栏显示为黄色。需要反查水汽压和露点温度时,可利用地面观测业务软件(MOI)工具菜单中的“要素计算”,在干球温度数据栏输入温度值,在湿球温度数据栏输入加U的湿度数据,点击计算按钮,即可求得对应的水汽压和露点温度。

3.2 风向风速 正点2min和10min风向风速缺测时分别用相应的2min和10min数据代替,不能互相代。用正点前/后10min接近正点的数据代替,其前推的相应时段内必须有正确数据[2]。否则用备份站数据代替。如:某日09:00的2min风速数据缺测,用08:57的2min数据代时,08:56和08:57都必须有正常分钟数据。10min数据缺测,用08:57的10min数据代时,08:48―08:57必须有正常的分钟数据。正点瞬时风向风速异常时按缺测处理,不能用备份站数据代替。所有风数据缺测不能代替时,人工观测仪器已撤除的台站需目测2min风向风速,风向按8个方位估计,其他风数据按缺测处理。风速记录缺测但有风向时,风向也按缺测处理,有风速无风向时,则风速照记,风向记缺测。

3.3 气压 正点气压数据不正常时,用前/后10min数据代替,其操作方法与气温相同。用备份站记录代替,2个气压传感器感应部分高度一致,可以直接输入代替,2个气压传感器感应部分高度不一致,用高度差订正公式将代替的本站气压订正到现用自动站气压传感器高度上来,输入到气压数据栏,再以此计算海平面气压[3]。

3.4 降水量 夏季非结冰期使用翻斗雨量传感器作为降水量采集仪器,称重式雨量传感器、备份自动站翻斗式雨量传感器作为备份仪器。冬季结冰期使用称重式雨量传感器测量降水,翻斗雨量传感器和备份站翻斗仪器停用。降水量记录异常时,非结冰期,用称重式雨量传感器、备份自动站翻斗式雨量传感器顺序代替,结冰期则用人工观测雨量筒记录代替。定时观测时次,在正点观测编报界面,点击“降水量替代”按钮,出现小时降水量、翻斗降水量和称重降水量数据,如图2,非结冰期小时降水量取自翻斗降水量,翻斗降水量数据异常时双击需要代替的称重降水量数据,点保存即可代替。用备份站降水量代替时,将备份站小时降水量数据输入到定时降水栏即可。结冰期用人工定时观测雨量数据代替时,在正点观测编报界面,点击小时降水量后面的“修改”按钮,出现小时内分钟降水量界面,如图3,将故障时段内的小时、分钟雨量删除按缺测处理,然后在6h降水栏(08:00正点在12h降水栏)输入人工定时观测降水数据。出现微量降水时,正点观测编报时次08:00在12h降水栏内输入00,14:00和20:00在6h降水栏输00。

降水量记录异常的其他情况:(1)无降水现象,因其他原因(昆虫、风、沙尘、树叶、人工调试等)或自动站故障造成多余记录时,在正点观测编报界面,点击小时降水量后面的“修改”按钮(图3),删除该时段内的分钟和小时降水量,并在值班日记中说明。(2)降水现象停止后,仍有降水量,若能判断为滞后(滞后时间不超过2h),可将该量累加到降水停止的那分钟和小时时段内,否则将该量删除。夜间(20:00―08:00)能够判断为滞后降水的,按前述处理;无法判断的,按正常处理。(3)称重式雨量传感器在降水过程中,伴随有沙尘、树叶等杂物时,按正常降水记录处理,液态降水溢出或固态降水堆至口沿以上,或降水过程中取水,则该时段降水按缺测处理。(4)称重式雨量传感器承水口内沿堆有积雪或雨凇时,应及时清理到收集容器内。由此产生的异常稻荩若能判断降水结束时间的,加入到降水结束的时次,该时次降水时段内的分钟数据按缺测处理;不能判断降水结束时间的,加入到有降水量的最后一个时次,该时次内分钟数据按缺测处理。无降水时,沙尘、树叶等杂物或偶然跳变造成的降水数据应及时删除。以上降水数据的处理均在图3界面内修改删除即可。(5)若因某时段降水数据异常而影响“15时段年最大降水量”及相应的开始时间挑选时,若相应时段的备份自动站降水数据正常,需将备份自动站挑取的“降水量、出现次数和开始时间”替换到现用站的年报表中。

3.5 能见度 能见度缺测时,非定时观测时次的正点数据中所有能见度数据均按缺测处理,定时观测时次进行人工补测。人工观测值存入Z文件CW段能见度和VV段10min平均能见度,其他VV段自动能见度数据按缺测处理,A文件中使用人工观测值,须在备注栏说明。此种情况下,允许能见度记录值与天气现象之间的不匹配。具体操作为在正点观测编报界面,人工观测值(以0.1km为单位,第二位小数舍去)输入到能见度栏,以m为单位输入到10min能见度栏内,其他栏按缺测处理,输“-”。能见度自动记录缺测时不做内插处理,不用正点前后10min接近正点的记录代替。

4 结语

以上是针对新型自动站各要素采集数据异常时,对相应的代替处理方法进行总结介绍,在定时和非定时时次数据缺测时,观测员首先要清楚可以用哪些数据代替,其次是明确数据代替的优先顺序,最后是熟练掌握数据代替的软件操作方法,以便在规定时间内完成操作,及时准确的上传数据。

参考文献

[1]中国气象局综合观测司.地面气象观测业务技术规定(2016版)[S].2016.

篇7

文章编号:1000-2154(2008)10-0075-06

一、引 言

关于财政分权通过什么机制促进经济增长的问题,经济学界的观点比较一致。从Hayek(1945)[1]所指的降低信息传递耗费到Tiebout(1956)[2]的以足投票理论,最终无不指向同一点,即地方政府具有信息优势,能更好地代表本地区居民的偏好,从而提供更适宜当地需要的公共物品,所以财政分权将有利于经济增长。由此,财政分权对经济增长的影响应主要体现于其对地方政府效率的作用。这里的地方政府效率是指各级地方政府机构在履行政府职能过程中所涉及的财政投入与财政效果的相对比较,即政府成本与政府收益之间的对比关系。然而,也有许多文献表示,由于许多发展中国家正经历“放权”与快速增长的同步进行,所以财政分权与较高的经济增长率之间仅仅是“相伴”而已。比如Gordon(1983)[3]认为,同级地方政府之间存在税收竞争和财政竞争,财政分权会产生过多的外部性成本并最终降低地方政府效率。Bardhan和Mookherjee(1999)[4]更是认为,过高的财政分权会导致地方腐败并最终降低地方政府效率。Young(2000)[5]则认为,中国的分权化导致了地方官员控制下的市场分割并最终阻碍经济增长。因为我国经济的快速增长和财政分权是同步进行的,所以财政分权和总量GDP之间必然具有数字上的同步性,会给人以加大财政分权力度应带来更高经济增长率的错觉。事实上,财政分权是因为作用于地方政府效率进而作用于经济增长,如果忽略地方政府效率这一中间作用机制而直接论及分权与增长,必然显得单薄无力。但从目前国内的相关文献来看,尚没有专门讨论财政分权对地方政府效率影响力的实证分析。

正是出于上述考虑,本文试图估计我国财政分权对地方政府效率的影响力。如果这一影响力显著,则说明我国的财政分权对经济增长的作用力是真实有效的。反之,我国的财政分权和经济增长之间则更多的是一种数字关系,没有必然的联系。同时由于地方政府效率可能具有明显的空间溢出作用(解垩,2007[6]),所以这里要采用空间计量经济学的方法以充分考虑地域相关性。

二、地方政府效率的估计

从目前的文献来看,估计地方政府效率的一个有效方法是非参数估计中的数据包络分析(DEA)。使用该方法估计地方政府效率的文献有Hughes和Edwards(2000)[7]、Woodbury等人(2003)[8]、解垩(2007)[6]等等。所谓数据包络分析,即是指借助已有的数据构造有效的生产前沿面,以此前沿面为参照来研究相关个体投入产出的相对效率。该方法最早由Charnes, Cooper和Rhodes (1978)[9]提出,他们假设所有的决策主体都是规模报酬不变的,然后利用线性规划求取各个决策主体的效率前沿面,最后给出各决策主体的相对效率。这种DEA分析模型被称为不变规模报酬模型(The Constant Returns to Scale Model, 简称CRS模型)。这里还要说明的是,DEA分析分为投入导向(以现有产出情况下是否是最小投入为判断前沿面的标准)和产出导向(以现有投入情况下产出是否最大为判断前沿面的标准)两种情况,由于我们讨论的是政府效率,投入往往是难以主观决定的,所以这里采用产出导向的CRS模型,这种方法的线性规划问题如下:

?? ?┥? 业 经 济 与 管 理????2008年?????┆┑?10期???┞嬗烂瘢翰普?分权对地方政府效率影响的空间面板数据分析?? ??

??Max???│耍?Φ??

Φ??i

S.t.∑jλ??jy????mj??≥Φ??iy????mi??,??m∈M;∑jλ??jx????nj??≤x????ni??,??n∈N;λ??j≥0,??j∈J??

其中??n代表N种投入品中的一种,m代表M种产出中的一种,x代表某种投入品的量,y代表某种产出的量,j表示所有决策单位J中的一个,i特指我们要计算相对效率的决策单位。很明显,Φ??i越大该决策单位的相对效率越低,所以这里的相对效率取E??i=1/Φ??i,即是决策单位i的相对效率。??

上述模型的一个明显问题是假设规模报酬不变,从而对约束向量??λ??没做任何线性约束,这在二维空间里表现为生产前沿是一条直线,没法对有规模变动的点形成一个更“紧”的“包络”。所以后来Banker, Charnes和Cooper (1984)[10]去除了CRS 模型中规模报酬不变的假设。以上述产出导向的线性规划而言,他们加上了约束条件∑jλ??j??=1,以此约束将现有决策单位的投入产出在空间形成的点“包络”得更“紧”,从而实现放松规模不变的假设条件。正因为如此,这种模型被称作可变规模报酬模型(The Variable Returns to Scale Model, 简称VRS模型)。这样的话,VRS模型事实上剔除了规模报酬变动的影响,故可以称作纯技术相对效率VRSTE,而CRS模型没有剔除规模报酬的影响,所以也可称为综合相对效率CRSTE。本文同时采用了这两种模型来计算相对效率,并以之为被解释变量进行实证分析。

使用DEA方法对我国地方政府效率进行估计的文献始于解垩(2007)[6]。该文使用了投入导向的VRS模型,以税收为投入,以公路密度、每万人病床数和每万人在校小学生数为产出估计了地方政府效率。但本文认为,税收本身不能直接代表政府投入,而且政府效率即使不高也很难通过缩减税收来提高,所以本文采用政府人均公共支出为投入向量并使用产出导向的DEA模型对政府相对效率进行估计。同时,为使结果更具代表性,本文选用每百人拥有的固定电话数、每千万人拥有的高校数、每万人拥有的医疗机构床位数、全年人均发电量(以千瓦时计量)、铁路密度、 公路密度这些以政府导向为主的基础设施作为产出变量。其中百人固定电话数可以表示通讯类基础设施的提供情况,高校数可以综合反映该地区教育基础设施的情况(因为高校较多的地方基础教育一般也较优良),医疗机构床位数可以综合反映该地区医疗基础设施的情况,人均发电量可以反映该地区能源基础设施的情况,公路和铁路密度表示交通基础设施的情况。这里选用的数据是我国大陆31个省份1998年到2005年的面板数据,所有投入产出指标均由《中国统计年鉴》(1999-2006)中的相关数据计算而得。

三、财政分权对地方政府效率影响的空间面板数据分析

由于地方政府间存在相互模仿和效率溢出的情况,直接的面板回归模型可能因忽略这些地域相关性而得到错误的结论,所以这里的分析将采用空间计量经济学的方法。而由于面板数据模型的构建又有多种形式,所以这里的空间面板数据模型在考虑空间相关性的同时也应考虑这些面板回归模型的基本模式。

(一)空间面板回归模型

空间经济计量的两种基本模型分别是空间滞后模型(Spatial Auto Regressive Model ,SAR) 和空间误差模型(Spatial Error Model ,SEM) , 这两种模型的基本形式为:

空间滞后模型(SAR):Y=ρW??NY+X′β+ε(1)

空间误差模型(SEM):Y=X′β+μ,其中μ=λW??Nμ+ε(2)

其中,Y为被解释变量向量,X为N×k的外生解释变量矩阵(可以包括常数项),β为变量系数矩阵,ρ和λ分别为空间自回归系数和空间自相关系数向量,ε为服从正态分布的误差成分。W??N是指空间权重矩阵(N为地区数,该矩阵是N阶方阵),本文的权重系数选取方式为相邻省份是1,不相邻省份为0(本文将广东和海南视为相邻省份),在具体计算中需要先进行标准化处理。上述基本模型是针对截面数据的基本模型,为使之适用于面板数据,我们需要对模型作适量改动。因为文中使用的数据来自于全国大陆31个省份,是研究的总体,所以面板数据模型可考虑使用基于个体固定效应的面板数据模型或者混合回归模型。这里要将面板数据应用于空间计量分析,所以也应该考虑面板数据模型的基本形式。这样,考虑空间相关的直接混合回归模型可以通过拓展(1)式或者(2)式中的W??N而得到。具体做法为使用I??T(T维单位时间矩阵,T是时间跨度)将W??N拓展为分块对角阵W????NT??。基于个体固定效应的空间面板数据模型有两种,分别是个体固定效应空间面板滞后模型和个体固定效应空间面板误差模型可表示为(Elhorst 2003[11]):

设sF为空间个体固定效应的N维列向量,即sF=(α??1,α??2,…,α??N)′,则对应于每个观测值的空间个体固定效应向量可表示为α=I??T??sF,其中I??T为T维元素全为1的列向量。

个体固定效应空间面板滞后模型(F_SarPanel) :

Y=ρ(I??T??W??N)Y+α+X′β+ε(3)

个体固定效应空间面板误差模型(F_SemPanel) :

Y=X′β+α+μ,其中μ=λ(I??T??W??N)μ+ε(4)

本文的实证分析正是基于上述(3)式和(4)式进行的。这里使用的软件是Matlab6.5及其空间计量经济学(Spatial econometrics)工具箱。

(二)实证分析

本文主要探讨财政分权对地方政府效率的作用,所以这里最重要的解释变量即是指代财政分权的指标??Fd??,计算公式为:省级人均财政支出/(省级人均财政支出+中央人均财政支出),方法来自乔宝云(2005)[12]等文献。另外,本文还选用了其它两个解释变量,第一个是人均GDP的对数??lpgdp??,表示该地区经济发展水平,高的经济发展水平代表着较高的物质、人力资本存量,所以预期它对政府效率的作用为正。另外一个解释变量是国有经济从业人员在所有从业人员中的比例??ratn??,用以反映地方政府负担的国有企业情况,预期它的作用为负。下面我们要分析是否需要建立空间面板计量模型,以及建立怎样的空间面板计量模型。为方便比较,我们先利用LSDV(Least Square Dummy Variables)方法估计传统的固定效应模型,使用的软件是EVews5.1,回归结果见表1。

见表1,从F检验和Hausman检验可知,个体固定效应模型是最佳的回归模型。从回归结果可以看出,财政分权有效地提高了地方政府效率。除财政分权外,地方人均GDP对地方政府效率的影响也为正。国有经济职工比例却对地方政府效率的作用为负,这说明国有经济仍是政府效率提高的较大负担,如何深化国企改革仍应是政府工作的重要内容。上述结果从拟合优度上看拟合程度较好,但这是否意味着不再需要进行空间计量分析了呢?为此,我们需要进行空间相关性检验。

空间相关性检验是空间计量经济分析的一个重要内容。区域空间相关性的检验主要有Moran、LMerr、LMsar、Lratios、Walds等检验,它们的原假设为??H??0∶ρ=0或λ=0??。但上述空间相关性检验都是针对单个截面表1 传统个体固定效应面板回归结果

量被解释变量为CRSTE被解释变量为VRSTE系数T统计量P值系数T统计量P值常数项0.6847.0340.0000.6719.4170.000Fd0.1182.0040.0460.1453.3520.001lpgdp0.0202.1340.0340.0223.2480.001ratn-0.084-1.9800.049-0.086-2.7460.007R-squared0.9470.958Adjusted R-squared0.9390.951F检验76.091 P值:0.000066.666 P值:0.0000Hausman检验15.631 P值:0.001320.940 P值:0.0001

注:这里的F检验用来检验是否存在个体间的个体影响和结构变化,如果接受原假设,则直接采用混合回归的方法估计模型即可,如果拒绝原假,说明存在个体差异,需要进行Hausman检验来确定应采用固定效应模型还是随即效应模型,Hausman检验的原假设是固定效应模型不具备有效性。回归模型提出的,不能直接用于面板数据模型。本文用分块对角矩阵C=I??T??W??N代替Moran’s I等统计量计算公式中的空间权重矩阵,就可以方便地把这些检验扩展到面板数据分析(何江,张馨之, 2006[13])。检验结果如表2所示。表2 空间相关性检验

检验方法LMerrLMsarLratiosMoranWalds统计量101.898698.81792.23810.390490.041因变量为CRSTE临界值17.6116.6356.6351.966.635概率0.00000.00000.00000.00000.0000统计量71.886414.91572.7308.752408.905因变量为VRSTE临界值17.6116.6356.6351.966.635概率0.00000.00000.00000.00000.0000

从上述检验的P值可以看出,空间相关性十分明显,应选择空间计量模型。需要说明的是,最小二乘法(OLS)不适合用来估计空间计量经济模型,这是因为在模型包含空间滞后误差项的情况下,虽然OLS估计量是无偏的,但不再有效;在模型包含空间滞后被解释变量的情况下,OLS估计量不仅是有偏的而且非一致。所以,一般使用ML方法(极大似然估计)来估计空间计量经济模型。本文借用Matlab6.5估计出了相关参数的大小,我们同时给出了空间滞后模型和空间误差模型,具体结果见表3。表3 考虑空间相关性的面板数据回归结果

变量被解释变量为CRSTE被解释变量为VRSTEF-SemPanelF-SarPanelF-SemPanelF-SarPanel系数P值系数P值系数P值系数P值Fd0.133 0.029 0.117 0.033 0.161 0.001 0.141 0.000 lpgdp0.021 0.025 0.018 0.038 0.022 0.002 0.020 0.003 ratn-0.068 0.084 -0.080 0.042 -0.073 0.010 -0.081 0.005 (I??T??W??N)Y0.047 0.583 0.066 0.424 (I??T??W??N)μ0.185 0.0180.272 0.000 R-squared0.94870.9480.9600.958Adjusted R-squared0.94080.9390.9540.952log-likelihood640.636638.842720.434379.787

从表3可以发现,无论被解释变量是哪一个,基于个体固定效应的空间面板滞后模型(??F-SarPanel??)的空间相关项(I??T??W??N)Y的系数均不显著,但同时基于个体固定效应的空间面板误差模型(??F-SemPanel??)中误差空间相关项(I??T??W??N)μ的系数却十分显著,这说明空间面板误差模型更贴近我们的研究现实。拒绝空间滞后模型相当于同时拒绝了财政分权等指标因作用于本地区政府效率而通过(I??T??W??N)Y项叠加到其它地区的作用,这意味着相邻地区的财政分权对本地区无影响。因为空间误差模型主要反映的是误差项的空间相关,于是这里得出空间效应的非均一性,即是由模型设定以外的因素所导致的空间相关,这里认为这种地方政府效率的空间相关是由地区间相似的自然因素、人文因素以及政绩考核标准造成。

先看被解释变量为地方政府综合效率??CRSTE??的空间面板误差模型。财政分权对??CRSTE??的作用力大小为0.133,高于普通面板回归模型的估计结果,这一方面说明财政分权有效提高了地方政府效率,另一方面也说明普通面板回归因没有考虑空间相关性而低估了财政分权的作用。??lpgdp??对地方政府效率的作用力为0.021,说明人均GDP每提高百分之一,地方政府效率可以提高0.021。同时,国有经济的负担也不如普通面板回归模型所显示的那样高。误差空间相关项的系数为0.185,且十分显著,说明地区间政府效率的相关性(I??T??W??N)μ十分显著。从拟合优度看,该空间面板误差模型也高于普通面板回归模型,再次表明地方政府效率空间相关性(又称政府效率的空间溢出效果)的存在。

再看地方政府纯技术相对效率??VRSTE??的空间面板误差模型,财政分权对??VRSTE??的作用力大小为0.161,同样高于对应的普通面板回归模型。而且,无论是否考虑空间相关,从表1和表3都能看出,财政分权对剥离了规模效率的纯技术效率作用力更大,这反映出财政分权对地方政府因为规模报酬而发生的效率增加的影响力不大。对比于普通面板回归模型,和被解释变量为??CRSTE??的回归模型类似,人均GDP的作用基本没有变化,但国有经济的负担在普通面板回归模型中仍被高估。从拟合优度看,该模型也同样高于普通面板回归模型。

四、结论与政策建议

本文首先采用数据包络分析的方法(DEA)估计出我国大陆31个省级地方政府1998到2005年的综合相对效率和纯技术相对效率,以这两个相对效率为被解释变量,借助基于个体固定效应的空间面板回归模型分析了财政分权对地方政府效率的影响力大小。相关结论显示,财政分权对地方政府效率的影响是显著的,传统的面板回归模型因没有考虑空间相关性而低估了这一作用。计量结果还显示出:地方政府效率在相邻地域间具有较强的空间相关性;人均GDP每提高百分之一,地方政府效率可以提高0.02左右;财政分权对剥离了规模效率的纯技术效率VRSTE的作用力更大,说明财政分权对地方政府因为规模报酬而发生的效率增加的影响力不大;国有企业给地方政府带来的负担从某种程度上降低了地方政府效率。基于上述结论,本文提出以下政策建议:

第一,正因为我国财政分权对地方政府效率的促进作用十分显著,说明通过进一步放权来提高地方政府效率的潜力仍十分巨大,所以中央政府可考虑给予地方政府更多的财政决策权以提高地方基础设施的提供效率。

篇8

【Abstract】Timely, accurate, standardized acquire meteorological data information of aviation is running an important basis to protect the safety of civil aviation. In this paper, we introduce a normal fault of civil aviation meteorological database system, process reach to maxProcessors led to process frequently down, so users cannot receive new message and data. We use “kill -9” command killed inactive process which have same keyword “LOCAL=NO” in Oracle database system, so we solved the error code ORA-0020 in no restart.

【Key words】Civil aviation meteorological database system; Oracle; Down; inactive; LOCAL=NO

0 引言

民航气象数据库系统利用数据库技术和商用数据库管理系统,对各类气象资料进行有效的组织与管理,采用统一的数据模型和用户界面,从而实现对气象资料的有效存储和快速检索,并具有分布调用、高度共享和安全可靠等性能,为航空气象服务、气象业务与科研培训提供有力的支持。航空气象情报及气象资料的及时、准确、标准化获取是保障民航安全运行的重要基础。本文介B了一起由数据库进程数达到最大导致民航气象数据库进程频繁宕机故障,并给出了故障问题处理方法。

1 民航数据库系统结构简介

民航气象数据库系统是具有飞行气象情报及气象资料的制作、交换、备供、存储等功能的信息系统,包括通信分系统、数据库分系统、预报平台及服务平台四部分[1],如图1所示。

1.1 通信分系统

通信分系统是民航气象数据库系统的基础系统,它主要实现各类气象资料的接收、检查、处理,并根据一定的规则向其它系统及地区中心进行资料分发,同时实现气象中心、地区中心与航站之间的数据交换。通信分系统将获取的各种气象数据发送给数据库分系统,数据库分系统将这些数据进行分类、解析和处理后存储在数据库中。

1.2 数据库分系统

数据库分系统采根据存储数据的用途及时间划分为实时库、历史库及临时库,分别满足不同的业务与服务的要求。数据库分系统又分为资料处理子系统和数据库管理子系统。

(1)资料处理子系统对服务器data目录下接收到的气象信息进行分析分解,质量控制后入库;

(2)数据库管理子系统采用C/S模式,对资料处理、数据库等进行实时监控与管理,预报平台与服务平台则通过获取Oracle数据库中的气象资料,以不同的形式展现给用户。数据库管理子系统主要侧重于对数据库中气象资料的管理。提供的主要功能有:系统登录、资料处理、数据库管理、数据库恢复、日志和统计、告警、用户管理、进程管理、系统配置、窗口、帮助等。

1.3 预报平台

预报平台(民航气象信息综合处理系统)利用气象实时数据库资料,通过对数据库中的气象资料进行检索、分析、处理,制作成文本、图形等形式的气象产品,为航空气象预报人员提供服务。

1.4 服务平台

气象信息服务平台从数据库中提取相关产品,以WEB形式展示向航空气象用户提供航空气象产品及服务。

2 故障现象

民航气象数据库系统数据库子系统运行环境:硬件环境为IBM服务器;操作系统为AIX5.2;数据库系统为oracle 10g。

数据库运行一段时间后,资料处理子系统相关进程自动停止运行,导致621客户端及相关协议单位无法检索到最新资料,且重新启动后再次停止运行或直接无法重新启动。

3 故障分析

通过查看数据库相应进程诊断文件方法检查故障原因,数据库诊断文件是获取有关数据库活动信息的一种方法,用于解决数据库出现的一些问题,主要包含有关数据库中出现的重要事件的一些信息,这些文件能更好的对数据库进行日常的管理。

5 结束语

本文介绍了一起民航气象数据库常见故障,即达到进程最大连接数后导致相关用户进程频繁down机问题,造成用户无法获取最新报文和自观数据,一般较为普遍的处理方法为采用修改系统最大进程连接数后重新启动数据库,但是民航气象数据库对系统停机重启要求较高,重启数据库将导致用户无法及时获取数据,具有一定的安全风险。本文主要利用Oracle数据库中远程连接进程的共同特点,都含有关键字“LOCAL=NO”,然后经根据关键字“LOCAL=NO”筛选出inactive进程使用“kill -9”强行杀掉[4],此方法可以实现在不重启数据库情况下解决ORA-0020问题。

【参考文献】

[1]太极计算机股份有限公司,民航气象卫星传真广播系统用户手册[M].1-60.

篇9

中图分类号:TB

文献标识码:A

doi:10.19311/ki.16723198.2017.12.098

1引言

事故分析和再现的过程中,事故现场图是必不可少的法律依据。但是往往在匆忙地绘制现场图的过程中,造成了数据遗漏和缺失,给事故分析和再现工作带来很大的困难。为了给事故处理提供更加有力的依据,对于现场图中数据的缺失,采用必要的数据分析方法是非常必要的。

2实际案例分析

图1是某事故现场图,大货车在事故发生的过程中在地面留下了清晰的制动痕迹,遗憾的是缺少了很长一段制动痕迹的长度,并且痕迹的形态有误差。根据制动痕迹计算货车的行驶车速,以及车轮抱死拖滑前的运动形态,根据这个现场图提供的数据是不可能的。

根据现场图来计算大货车车速是不可能的,我们只能根据其有标注12m长度的制动痕迹来计算其行驶的最低车速,但这个车速较低,对分析案情没有意义。但是我们能够发现,根据现场图所示的第一条制动痕迹的参数可以判断此制动痕迹为一条斜线,因此大货车在开始刹车时可能处于压黄线行驶状态。下面则判断其开始刹车时是否处于压线行驶状态。

2.1计算大货车车速与制动痕迹长度的关系

由现场图可以看出,大货车的制动痕迹为三段,我们假设这三段的长度分别为S1、S2、S3。当驾驶员开始踩刹车踏板到出现制动痕迹的这段时间内(制动协调时间),大货车也是向前行驶的,我们假设在这段时间内其行驶距离为ΔS。

首先根据大货车在地面上的制动痕迹,由动量守恒可以列出公式(1):

12mv2=k1μmg(S1+S3)+k2μmgS2(1)

式中,m为大货车、驾驶员及货物的总质量(kg);v为大货车开始刹车时的瞬时速度(m/s);k1为附着系数修正值;k2为附着系数修正值;μ为大货车在干燥沥青路面上制动时的附着系数;g为重力加速度(m/s2);S1――大货车在地面上留下的第一段制动痕迹的距离(m);S2――大货车两段制动痕迹中间的距离(m);S3――大货车在地面上留下的第二段制动痕迹的距离(m)。

大货车在制动协调时间内车速的降低量可由(2)式求出:

Δv=0.5μgt(2)

式中,Δv为制动协调时间内车速的降低量(m/s);μ为大货车在干燥沥青路面上制动时的附着系数;g为重力加速度(m/s2);t为踩踏时间和踩死时间之和(s)。

在制动协调时间内大货车所行驶的距离可由(3)表示:

ΔS=[(v+Δv)2-v2]μg(3)

式中,ΔS为制动协调时间内大货车所行驶的距离(m);v为大货车开始刹车时的瞬时速度(m/s);Δv为制动协调时间内车速的降低量(m/s);μ为大货车在干燥沥青路面上制动时的附着系数;g为重力加速度(m/s2)。

当然,由以上3式是无法求出大货车的车速的,因为在以上3式中缺少相应的未知数S1的数值大小,但是我们却可以得出S1与v之间的关系,即第一段制动痕迹的长度与开始刹车时的瞬时速度之间的关系。

2.2大货车的运动形态

在E点处,大货车开始制动,到D点时开始出现制动拖痕,到C点时第一段制动痕迹结束。如果在制动前大货车没有压线行驶的话,则直线EC应不与中心双黄线相交;如果压线的话,则直线EC应与中心双黄线相交。

利用三角形关系可以判断虚线ED是否与中心双黄线相交所示。

2.3大货车是否压线判断

在图3、图4中:CD=S1,DE=ΔS,AC=2.7m,GD=1m,如果大货车没有压线,则E点应在直线AG的右侧,因此B点也应在直线AG的右侧,这时有AC>BC(如图2);反之如果大货车压线,则有AC

由三角形相似关系可以得出:BCHC=CECD;因此:

BC=CE・HCCD=(S1+ΔS)・(AC-GD)S1(4)

F令BC=AC则:BC-AC=0(5)

联立式(1)~(5)得:v=-15.62m/s=-56.23km/h(舍去);

v=26.77m/s=99.97km/h。

因此由二次方程根的分布可以得出:如果-56.23km/h

显然v9997km/h也是不符合实际的,所以能够得出-56.23km/h

3结语

篇10

一、前言

2008年以来,我国房地产业迅速发展壮大,繁荣时期甚至成为部分城市的支柱产业,对居民的居住水平产生了很大的影响,城市建设迅速发展。与此同时,城市房地产商品房价格等与同期社会经济增长水平、居民收入水平极不匹配,尤其现在部分城市房地产投资过度等情况相当严重,造成房价有下跌的趋势。分析各地区生产总值对商品房销售额的影响对于了解中国各地区房地产市场繁荣程度随各地区生产总值的变化而不同具有一定的意义。

二、实证研究

下面以2005-2013年我国31个省市自治区的地区生产总值和商品房销售额的年度面板数据,利用Eviews8来实现数据分析,数据来源为国家统计局。

(一)平稳性检验和单位根检验

未经差分的各地区生产总值和商品房销售额的单位根检验的显著性水平都是1,所以两个数据集是非平稳的。

经过一阶差分后两个数据集的显著性水平都低于0.05,通过了单位根检验,说明经过一阶差分后,两个数据集变得平稳了。进而可以认为两个数据都是一阶单整的。

(二)协整检验

经过上述几种检验方法大部分检验都是水平显著的,因此可以认为两个数据集是协整关系。再者,通过上面的单位根检验可知两个数据集都是一阶单整的,因而两者存在协整关系。

(三)模型设定检验

从上面可以看出,通过F检验,我们拒绝了利用混合回归模型对上述面板数据进行拟合。在这种情况下,我们再次进行拟合检验看该面板数据是否符合变系数模型的假定。为此,建立不存在任何特殊效应的变系数模型和变截距模型以得到各自的回归标准差S1和S2。

首先,建立变系数模型。得到回归结果S1=23015028.

其次,建立变截距模型。得到回归结果S2=32098591.又由上混合回归模型的估计结果得出混合回归模型的回归标准差S3=113000000.在这里,已知N=31,T=9,K=1。

(四)模型参数估计

下面建立个体固定效应变系数模型对面板数据进行计量回归。

有模拟估计可见,两个检验统计量的显著性水平都接近0,因此拒绝原假设,可以认为模型应当设定为个体固定效应变系数模型。

接下来进行个体固定效应变系数模型的参数估计。根据DW上下限查询表,在0.05的显著性水平下,变量数为1,样本个数为31的情况下,DW的上下限分别为1.363和1.496。因为得到的DW值为2604656.不在1.496和2.504(4-1.496)之间,所以不能判定其是否存在自相关。

在经过自相关修正后,得到的DW值为2.422858,在1.496和2.504(4-1.496)之间,可以判定其不存在自相关,自相关已经消除。

三、结论

由回归结果可以看出,除的商品房销售额与其地区生产总值呈负相关外,其他地区的商品房销售额与地区生产总值呈正相关。其中海南的相关性达到了0.443584.但地区两者的负相关性几乎不存在,只有-0.01539。因此可以认为,全国各地区的地区生产总值基本上和其所在地区的商品房销售额呈现正相关关系。即各地区GDP对商品房销售额可能存在正的影响。(作者单位:四川大学经济学院)

篇11

DOI:10.3969/j.issn.1008-0821.2016.02.031

〔中图分类号〕G201 〔文献标识码〕A 〔文章编号〕1008-0821(2016)02-0167-04

〔Abstract〕This paper systematically studied relevant research outputs and compared respective research status on open research data policy home and abroad.In order to provide references for promoting relevant research,this paper discussed the characteristics of relevant research home and abroad,pointed out the shortages of current research in China,and finally evaluated the future research trends on open research data policy in China.

〔Key words〕research data;open data policy;research status;research trend

科学数据(Scientific Data),也称科研数据(Research Data),与科学论文一样也被视为重要的科研产出,也是一种具有潜在经济价值的战略资源。开放科学数据对数据驱动科学研究起到了关键作用,越来越多的研究是建立在对已有科学数据重用的基础之上的。因此,完整保存并开放获取先前研究的科学数据,对于顺利开展后续研究、推动科学进步具有重要意义。开放科学数据在国家科技创新中的战略地位不断提升,目前在开放规模和开放程度上均达到了前所未有的水平。通过开放科学数据改善社会生活受到众多投资者、出版商、科学家和其他利益相关者的高度关注,欧洲、美国以及众多国际组织与研究机构都积极建立开放科学数据的政策保障与管理机制。如美国已经形成了以“完全与开放”为基本国策的科学数据开放共享法规体系;经济合作与发展组织(OECD)颁布了《公共资金资助的科学数据获取原则与指南》,以指导成员国制定与完善科学数据开放共享政策;欧盟“地平线2020计划”将科学数据新增为开放存取的对象并要求逐步达到开放性可获取,并启动了旨在促进科学数据获取和再利用的“科学数据开放先导性计划”[1]。

我国早在2002年就已正式启动科学数据共享工程,并先后在六大领域共计24个部门开展了科学数据共享工作。2006年以来,中国科学院国家科学图书馆提出并开展了科学数据与科技文献跨界集成服务、数据融合技术的研究和开发。目前,我国在科学数据开放政策的制定和完善方面,与美国、英国、澳大利亚、日本、韩国、台湾等国家和地区相比仍显滞后。本文针对国内外科学数据开放政策的研究现状进行了比较分析,在此基础上探讨了国内外相关研究的特点以及我国现有研究的不足,并对我国科学数据开放政策的未来研究动向进行了评判。

1 国内研究现状分析

对从CNKI和万方数据两大中文数据库检索到的相关文献进行阅读和梳理发现,我国针对科学数据开放政策的相关研究可以概括为以下5个方面:

1.1 建立开放科学数据政策保障机制的理论性研究

目前已有较多成果是针对建立和完善科学数据开放共享政策法规的顶层设计展开论证,如刘细文(2009)指出,美国、英国以及众多国际组织与研究机构都就科学数据开放获取问题,积极建立政策保障与管理机制并广泛推行相关服务与实践,其政策举措主要围绕科学数据交流渠道各环节,集中体现在数据开放资助、数据质量控制、数据合法保护、数据保存以及数据共享利用五大方面[2]。王晴(2014)指出:国内外20余个组织相继制定或实施了30余条旨在促进科学数据开放共享的政策法规,根据制定主体和效力范围可以分为宏观、中观和微观3个层面,共同形成了一个较为完备并在不断完善的制度体系[3]。

1.2 针对国内外各类科学数据开放共享政策的调查研究 目前已有部分成果针对多种政策主体(如高等院校、科研资助机构、信息服务机构等)的有关开放科学数据的声明、指南以及政策法规等各类政策文本展开了调查分析,如司莉等(2013)考察了美国、英国、澳大利亚3个国家的科研管理机构、高校制定的数据管理政策以及政府制定的数据公开政策,并指出:发达国家的政府部门都制定了科学数据开放共享政策,对科学数据的保存与管理等均作了明确具体的规定。我国政府也应制定完善的科学数据开放共享政策,从政策层面对科学数据的开放共享进行指导和规范[4]。司莉等(2014)针对英美10所高校的科学数据开放共享政策,从一般政策、数据标准、数据访问与保存、数据共享、数据安全与保护以及数据产权6个方面进行了调查与比较,揭示了英美两国大学科学数据开放共享政策的特点与差异,指出通过借鉴国外大学科学数据开放共享政策的良好实践,推动我国大学相关政策法规的制定和[5]。唐源等(2015)针对国外典型医学相关机构的科学数据开放共享政策从科学数据开放资助、科学数据汇交、科学数据保存、数据共享利用4个方面的政策内容进行文献调研和网站调研,指出国外政策制定者从政府到机构自身以及期刊等具有多重身份,政策内容集中于数据汇交和共享计划。

1.3 科学数据开放政策利益主体的开放共享行为研究 由于开放科学数据的利益主体一般要受到相关政策法规的制约,因此也可视为科学数据开放政策的利益主体。国内的相关研究成果主要包括:①单一利益主体的开放共享行为的共享意愿及影响因素分析,如张晋朝(2013)通过问卷调查方法和结构方程模型,分析了我国高校科研人员科学数据共享意愿的影响因素,指出科学数据开放共享工作的顺利开展不仅要关注技术维度,还要关注社会环境因素、内在激励、人际信任等人文维度[7]。②针对单一利益主体的开放共享行为的演化博弈分析,如庄倩等(2015)建立了参与科学数据开放共享的科研人员之间的演化博弈模型,揭示了科学数据开放共享博弈中存在的"公共品困境"及其原因,指出为促进我国科学数据开放共享健康有序发展,不能仅从国家层面制定和完善相关的战略规划,还要从政策法规层面建立相应的激励机制[8]。

1.4 制定开放科学数据相关知识产权政策法律问题的研究 虽然目前科学数据具有著作权已经成为共识,但其使用存在著作权界定不清及其利益分配不当等问题,尤其是科学数据二次研发过程中的著作权分配问题。司莉等(2015)从科学数据开放共享中的授权方式、数据出版及引用、技术措施、制度与法规、科学数据二次利用5个方面分别探讨了科学数据著作权保护存在的问题及对策,指出我国应结合知识产权保护法、著作权法、专利法和中华人民共和国政府信息公开条例等已有法规条例,尽快建立完善的科学数据著作权保护体系[9]。

1.5 基于政策文本分析的科学数据开放政策实证研究 目前国内的相关研究成果非常有限,主要是通过内容分析法进行政策文本分析,如裴雷(2013)通过内容分析法构建了基于政策文本的上下位政策概念一致性的测算框架,并对我国12个领域的科学数据开放共享政策文本进行内容编码和实证分析,探讨了当前我国科学数据开放共享政策在吸收、扩散和创新过程中的政策文本质量[10]。

2 国外研究现状分析

对从Springer、Emerald和Elsevier三大外文数据库检索到的相关文献进行阅读和梳理,可以发现国外科学数据开放政策研究所涉及的研究主题更为广泛,可以大致概括为以下5个方面:

2.1 制定科学数据开放政策的理论探讨与实践研究

国外学者针对这一研究主题的研究成果也比较丰富,如Childs S等(2014)探讨了作为实现开放科学数据的机制――科研数据管理(RDM)的作用以及它带给记录管理者的机遇,并指出开放科学数据议程的前提是尽可能公开可用的数据,在开放科学数据的背景下仍然存在方法、伦理、政策和实践等层面的问题[11]。Higman R等(2015)借鉴行动者网络理论(Actor Network Theory)并结合政策分析过程和案例研究方法,考察了在英国高等教育机构中建立科学数据管理(RDM)政策与实践的驱动因素,以及科学数据开放共享在科学数据管理过程中的关键作用[12]。

2.2 科学数据开放政策利益主体的开放共享行为研究 国外学者针对科研人员的开放共享行为的共享意愿及其影响因素展开了较为系统的实证研究,如Wicherts J M等(2011)对心理学期刊中的统计结果显著与数据共享意愿的相关性进行了实证研究,发现科研人员不愿意共享数据的主要原因在于:统计结果不构成充分的证据以及更有可能存在明显的错误,并强调了建立科学数据的强制性归档政策的重要性[13]。Sayogo D S等(2013)指出科学数据开放共享存在多重障碍与挑战:①技术上的障碍;②社会、组织和经济上的障碍;③法律和政策上的障碍,并通过问卷调查得出影响科研人员开放共享意愿的几个关键因素:数据管理技能、组织参与、法律与政策需求、向数据集提供者致谢[14]。

2.3 面向科学数据开放政策利益主体的开放共享服务研究 国外学者针对高校图书馆、研究型图书馆、信息服务机构的科学数据开放共享服务实践展开了广泛的研究,国内的相关研究主要是对国外科学数据服务实践的案例研究及调查分析,如Nielsen H J等(2014)认为科学数据管理(RDM)是图书馆员和信息专业人员的潜在职责,研究型图书馆是选择、保护、组织与利用科学数据的最佳场所,并应积极参与到其所在学科领域的特定领域的分析研究[15]。Tenopir C等(2014)指出数据密集型科学的出现和数据管理规范的制定,驱动高校图书馆为其教师和学生开展数据管理服务(RDS),并通过调查研究建立了图书馆员、图书馆、信息服务机构参与数据管理服务的评价基准[16]。

2.4 针对专业领域科学数据开放政策的政策分析研究 国外学者针对天文、气象、地球、生物、医学等自然科学以及心理学、伦理学等社会科学专业领域的科学数据开放共享政策进行了政策分析研究,如Harris R等(2015)考察了参与开放地球观测数据的八国集团、欧盟和国际组织的21个政策文本和法律文书――八国集团(G8)开放数据、全球综合地球观测系统(GEOSS)数据共享原则、经济合作与发展组织(OECD)科学数据原则与指南、欧洲环境信息指令等,指出地球观测领域开放数据政策应更加明确、完整地说明开放获取的条件,以期充分实现开放地球观测数据的潜在利益[17]。

2.5 基于政策文本分析的科学数据开放政策实证研究 国外学者进行政策文本分析时除了运用常规的内容分析法以外,还创新性地引入了语义网分析、社会网络分析等研究方法,如Jung K等(2015)对韩国《开放公共数据指令》(OPDD)的政策文本进行了语义网分析,并指出:利用语义网的概念模型及分析过程有助于确定各类公共政策针对的主要问题及解决视角的一致性[18]。

3 国内外研究现状的比较分析

对国内外科学数据开放政策的相关研究进行对比,可以发现具有以下几个特点:①总体来看,我国学者针对科学数据开放政策各研究主题的相关研究,目前大多处于对国外先进政策实践的案例研究与调查分析阶段。②国内外针对科学数据开放政策的相关研究目前主要以英美两国的政策实践为主,原因在于英美两国已经建立起相对完善的科学数据开放政策法规体系,如经济合作与发展组织(OECD)于2007年颁布了《公共资助科学数据开放获取的原则和指南》,提倡所有的获公共资金支持得到的科学数据都应能被公众获取、共享。美国、英国等一些重要基金机构也提出了科学数据开放政策指南,如美国国家科学基金会(NSF)、美国国立卫生研究院(NIH)、美国国家航空航天局(NASA)、英国研究理事会(RCUK)等,要求所有获得资助的项目提交科学数据的开放共享计划。美国科技政策办公室(OSTP)于2013年签署了关于“提高联邦政府资助的科学研究结果的访问”的备忘录,要求由联邦资金资助所产生的非保密的科学数据,应该存储并为公众提供免费的最大化访问[19]。③国内外对于具体专业领域的科学数据开放政策的研究相对较多,但对于国家统一综合层面的科学数据开放政策研究十分有限。

对比国内外开放数据政策研究的现状不难看出,国内相关研究主要存在以下不足:①目前的研究成果主要是针对国外高等院校、信息服务机构和科研资助机构的科学数据开放共享政策的调查研究与比较分析,但从整体来看这类研究成果的研究内容比较分散、系统性不强;②已有研究针对参与科学数据开放的单一利益主体(如研究人员)的开放共享行为进行了演化博弈分析,尚未发现针对参与科学数据开放的多个利益主体之间的演化博弈分析的相关研究;③针对科学数据开放政策的政策文本分析目前主要采用内容分析法,尚未展开借鉴多学科理论与方法的政策文本分析方法的探索性研究;④尚未展开针对科学数据开放政策群的政策协同研究,已有学者针对政府数据的开放数据政策与数据安全政策的协同关系展开研究[20],如黄道丽等(2015)分析了美国政府的开放数据政策与网络安全政策之间的冲突与协调[21],但尚未发现有针对科学数据展开的类似研究;⑤尚未从政策科学的研究视角展开系统性的科学数据开放政策评估研究。

4 我国未来研究动向评判

通过以上的比较分析,笔者认为,我国图书情报及相关学科领域研究者应展开协作研究,并从以下5个方面强化和拓展这一重要的跨学科研究领域。

4.1 各类科学数据开放政策的调查与比较分析

针对主要发达国家的政府部门、高等院校与科研机构以及各类国际组织的有关开放科学数据的声明、指南以及政策法规等各类政策文本展开广泛的调查分析,比较和分析各类政策文本中有关一般政策、数据标准、数据共享、数据保存、数据安全和数据产权等方面内容的特点与差异,合理借鉴发达国家在政策的系统性、一致性、完善性方面的经验,为推进我国科学数据开放政策的制定与完善提供必要的参考借鉴。

4.2 科学数据开放政策多个利益主体的博弈分析

现有的研究成果主要是针对参与科学数据开放的单一利益主体(如研究人员)的博弈分析,在后续研究中可针对参与科学数据开放的多个利益主体(研究人员、科研机构、数据中心、资助者、出版者、第三方用户等)之间的利益诉求关系展开研究,建立参与科学数据开放的多个利益主体之间的演化博弈模型,探索促进多个利益主体开放科学数据的激励机制,为从微观层面制定和完善科学数据开放政策提供演化博弈的理论框架。

4.3 基于多学科方法的科学数据开放政策文本分析

值得关注的研究方向包括:①借鉴多学科理论与方法对政策文本进行内容分析,如借鉴扎根理论的“信息提取-归纳-概念化-重组”思想,对各类科学数据开放政策文本进行解构、分类和比较,提取科学数据开放政策的区分要素,确定政策文本结构化编码体系和分类标准,将政策文本转化为半结构化数据,建立类定量化的政策文本分析框架。②基于知识单元的政策文本分析方法的探索性研究,如借助于语义网分析和社会网络分析方法,探索政策文本的词汇分析单元之间的语义关联关系,并可通过软件工具进行网络结构分析及可视化展示。

4.4 各类科学数据开放政策的政策协同研究

值得关注的研究方向包括:①科学数据开放政策群内部的政策协同研究。通过内容分析法对各类科学数据开放政策进行政策文本分析,从政策连续性、政策互补性、政策交叉性、政策缺失性及政策矛盾性等多个维度考察科学数据开放政策群内部的政策协同。②科学数据开放政策群与数据安全政策群的政策协同研究。借鉴协同论思想和政策协同理论及工具,设计科学数据开放政策群与《中华人民共和国保守国家秘密法》、《中华人民共和国科学技术保密规定》以及其他相关部门颁布的保密规定等数据安全政策群的政策协同机制,制定科学数据开放政策群与数据安全政策群的政策协同策略。

4.5 科学数据开放政策的政策分析与评估研究

将侧重于定性分析的政策分析研究与侧重于定量分析的政策评估研究相结合,针对科学数据开放政策,从政策科学的学科视角进行多角度的政策分析与评估研究,如针对科学数据开放政策完整的生命周期中的每一环节――政策提案、政策制定、政策实施、政策反馈和政策调整,综合运用多种政策科学相关理论、方法与工具进行系统性的政策评估研究;运用层次分析法、模糊综合评判法、数据包络分析法和灰色关联度法等政策评估方法,建立科学数据开放政策评估指标体系并进行指标权重分析,采用数学模型及软件工具构建科学数据开放政策评估模型并进行模拟实验。

5 结 论

通过CNKI和万方数据两大中文数据库以及Springer、Emerald和Elsevier三大外文数据库,笔者对国内外现有的科学数据开放政策的相关研究成果进行了比较研究,并在此基础上探讨了国内外相关研究的特点:目前国内的相关研究基本处于对国外先进政策实践的案例研究与调查分析阶段,国内外针对科学数据开放政策的相关研究目前主要以英美两国的政策实践为主。结合科学数据开放政策相关领域的学术研究与实践进展,我国在这一跨学科研究领域未来可能出现五大研究动向:①各类科学数据开放政策的调查与比较分析;②科学数据开放政策多个利益主体的博弈分析;③基于多学科方法的科学数据开放政策文本分析;④各类科学数据开放政策的政策协同研究;⑤科学数据开放政策的政策分析与评估研究。从而推动我国开放科学数据的政策保障与管理机制的建立。

参考文献

[1]韩缨.欧盟“地平线2020计划”相关知识产权规则与开放获取政策研究[J].知识产权,2015,(3):92-96.

[2]刘细文,熊瑞.国外科学数据开放获取政策特点分析[J].情报理论与实践,2009,32(9):5-9.

[3]王晴.论科学数据开放共享的运行模式、保障机制及优化策略[J].国家图书馆学刊,2014,(1):3-9.

[4]司莉,邢文明.国外科学数据管理与共享政策调查及对我国的启示[J].情报资料工作,2013,(1):61-66.

[5]司莉,辛娟娟.英美高校科学数据管理与共享政策的调查分析[J].图书馆论坛,2014,(9):80-85,65.

[6]唐源,吴丹.国外医学科学数据共享政策调查及对我国的启示[J].图书情报工作,2015,59(18):6-13.

[7]张晋朝.我国高校科研人员科学数据共享意愿研究[J].情报理论与实践,2013,36(10):25-30.

[8]庄倩,何琳.科学数据共享中科研人员共享行为的演化博弈分析[J].情报杂志,2015,34(8):152-157.

[9]司莉,贾欢,邢文明.科学数据著作权保护问题与对策研究[J].图书与情报,2015,(4):118-122.

[10]裴雷.我国科学数据共享政策概念一致性与政策质量评估[J].情报理论与实践,2013,36(9):28-31.

[11]Childs S,McLeod J,Lomas E,et al.Opening research data:issues and opportunities[J].Records Management Journal,2014,24(2):142-162.

[12]Higman R,Pinfield S.Research data management and openness:The role of data sharing in developing institutional policies and practices[J].Program:Electronic library and information systems,2015,49(4):364-381.

[13]Wicherts J M,Bakker M,Molenaar D.Willingness to share research data is related to the strength of the evidence and the quality of reporting of statistical results[J].PLoS ONE,2011,6(11):1-7.

[14]Sayogo D S,Pardo T A.Exploring the determinants of scientific data sharing:Understanding the motivation to publish research data[J].Government Information Quarterly,2013,30(S1):19-31.

[15]Nielsen H J,Hjrland B.Curating research data:the potential roles of libraries and information professionals[J].Journal of Documentation,2014,70(2):221-240.

[16]Tenopir C,Sandusky R J,Allard S,et al.Research data management services in academic research libraries and perceptions of librarians[J].Library & Information Science Research,2014,36:84-90.

[17]Harris R,Baumann I.Open data policies and satellite Earth observation[J].Space Policy,2015,32:44-53.

[18]Jung K,Park H W.A semantic(TRIZ)network analysis of South Koreas“Open Public Data”policy[J].Government Information Quarterly,2015,32(3):353-358.

篇12

0 引言

高分辨率卫星的发展促进了高分辨率卫星遥感的应用,从而使遥感技术产业化商业化。近些年来,发射的卫星越来越多,其中包括Spot-5、IKNOS、Quick Bird等高分辨率遥感卫星,从而降低了遥感图像的价格。遥感涉及到的领域也越来越广泛,包括城市规划、环境保护、大地地质等等。由于矿井开采深度在增加,地表的地质状况也就会随着发生变化。而且新建了众多道路网、水渠等,还有各种塌陷区煤矸石等的变化,这就造成了现有地形地质图件和其他专题图的现势性比较差,存在严重的滞后现象。因此,可以根据已有的地质地形基础图件,采用有效可行的方法及时对其进行更新,这是十分必要和紧迫的。利用研究方法快速有效的提取房屋信息,研究结果用于满足矿区村庄搬迁所需,可以为矿区的村庄搬迁以及评估提供数据支持。

1 课题依据的理论和方法

1.1 图像分割

图像信息处理中的一项重要的研究内容是图像分割。图像分割的成果应用非常广泛,包括模式识别、图像合成、图像理解、图像编码等等。高分辨率图像与多光谱遥感图像相比较:具有比较丰富的空间信息,这方面对于认知事物的属性等具有很大的优势,但是高分辨率的光谱信息却不是很丰富,而且光谱之间还存在相互影响。假如把像元的特征视看做一种模式,则可以将图像分割可看成为一个聚类的过程。通过面向对象提取技术就能减轻以所说的影响。

图像分割是把图像分成[1]各种具有各种特性的区域,并且将感兴趣的目标提取出来的技术和过程。图像分割的目标是将图像分成几个具有不同属性的区域,同一区域里的像素具有一些相同的性质。对于目前的分割方法来说,很多的分割技术都是基于灰度图像的,而对于彩色图像的分割而言,分割的效果就不太好[2]。存在于图像分割中的普遍一个的问题是数据空间的构造。为了实用的分类器的构建,必须找寻具有某种典型代表意义的一些特征[3]。

图像分割方法具有很多种,但大部分方法都是通过基于图像边界或者区域的方式进行实现分割[4]的。

1.2 论文使用的算法

城区城镇等居民地包括房屋,水泥路面等建筑物,林地、草地等,主要是呈大斑块状,辐射状的道路与之相连通,其内部具有一定的纹理特征,具有水泥房顶的纯净像元[5]。而数学形态学方法的优点是它能够有效的除去图像中的包含的小区域噪声信息。数学形态学属于应用在模式识别领域和图像处理领域一种新的方法。它的研究着重点是图像的几何结构,其基本思想:用一个结构元素探测一幅图像,从而如果构造不同的结构元素就可以实现不同的图像分析[6]。如果将其中的两种方法相结合,即利用数学形态学的方法处理的拉氏滤波与腐蚀运算结合使用的产生的中间结果图像或最终的结果图像,最后再进行房屋的边缘信息提取。

1.3 Matlab与结合的方法

本文利用Matlab与结合的方法进行房屋信息的提取。

.NET是Microsoft XML Web services平台。通常的VB/C下与 MATLAB 的混编程过程一般都很复杂。在VC下混编程方法有:利用mcc使matlab的m文件转化为cpp,c文件或dll可以为VC所调用;利用matlab的combuilder使m文件做成com组件,可以为VC所调用;利用matcom, mathworks公司专门为VB开发了一个com组件,这个组件里面有很多的数学函数,利用matlab的combuilder使m文件做成com组件,可以供VB所调用。

Matlab与相结合的优点是既可以体现Matlab强大的数据处理功能又能实现VB的可视化特点,从而达到两者最优的结合。

2 图像预处理

论文采用的数据源是2009年11月6日河南某矿区的QuickBird数据影像。该研究区的房屋概况是:平房占了大部分,另外还有少数瓦房,平房和瓦房有一层的和二层的。本文的研究方法主要是以该地区的平房和楼房为例进行的。

3 方法的实现

3.1 图像分割算法

遥感图像分割把一幅影像划分为一组区域,图像分割的结果使得每个区域的内部具有某一类相似性或一致性,而任意相邻的两个区域之间则不能有这类相似性[7]。一般,有两种原则来进行图像分割,一是相关分割技术,一是区域相关的分割技术。利用此方法和其他两种方法相对比。

从该方法的结果可以分析出,分割的精度偏低,错误率偏高,把本属于同一类型的房屋分成了不同类型。

篇13

Abstract:Objective To investigate the in vitro fertilization and embryo transfer(IVF-ET)after two different luteal support effect on the outcome of IVF-ET methods.Methods From in vitro fertilization in March 2015~2016 year in March in our hospital,embryo transplant patients,100 cases enrolled in this study,according to the different luteal support method,divided into group A(n=50)and group B (n=50),group A with dydrogesterone oral treatment,group B with intramuscular injection of progesterone injection therapy,evaluation of clinical treatment the effect of group A and group B patients.Results Group A and group B patients clinical pregnancy rate,ectopic pregnancy rate,early abortion rate had no significant difference(P>0.05); The incidence of adverse reactions in group A was 0.00%,which was lower than that in group B 14.00%,(P

Key words:In vitro fertilization and embryo transfer;Luteal support;Pregnancy outcome

w外受精-胚胎移植(IVF-ET)是一种人工生育技术,也称为试管婴儿,指取出卵子和,置于试管内使其受精,再将胚胎前体移植回母体子宫内发育成胎儿,在临床得到了广泛应用。在IVF-ET周期,黄体期是胚胎移植术后的常规,黄体支持的药物种类、给药方式、剂量等目前尚未完全统一,常见药物包括地屈孕酮、黄体酮等。本文收集100例IVF-ET患者临床资料,分析两种不同黄体支持方法对治疗结局的影响,情况如下。

1资料与方法

1.1一般资料 随机选取我院近年来收治的100例体外受精-胚胎移植病例,年龄26~37岁,平均年龄(32.45±3.03)岁;不孕1~15年,平均(6.72±1.16)年;原发性不孕42例,继发性不孕58例;不孕原因:男性因素18例,输卵管因素67例,排卵障碍3例,不明原因7例,其他因素5例。纳入标准[1]:年龄≤40岁;近3个月内未服用激素类药物;排除冠心病、糖尿病、高血压、恶性肿瘤、精神异常者;接受常规IVF或单胞浆内注射的胚胎移植周期;取卵≤20个;自愿签署知情同意书。将100例患者分为甲组50例和乙组50例,2组病例年龄、不孕时间、不孕原因等比较,均衡性较高(P>0.05)。

1.2方法

1.2.1分组 取卵后黄体支持方法分为甲组和乙组各50例,甲组取卵当日给予10 mg地屈孕酮片(商品名:达芙通,荷兰 Abbott Healthcare Products B.V.,注册证号:H20110211),3次/d,若为临床妊娠,连续用药至移植后2个月。乙组取卵当日给予40 mg黄体酮针剂(广州白云山明兴制药有限公司,国药准字:H44020562)肌注,1次/d,临床妊娠者,持续给药至移植后2个月。

1.2.2控制超排卵方案 IVF-ET应用黄体中期降调节方案实施控制性超排卵。在前次月经周期21 d开始降调节,隔日给予0.1 mg醋酸曲普瑞林注射液(成都天台山制药有限公司,国药准字:H20058648)皮下注射,在月经第3~6 d查血清激素和B超监测,当达到降调节要求(LH

1.3评价指标 详细记录两组患者临床妊娠率、宫外孕率、早期流产率等,统计两组不良反应发生情况。

1.4统计学分析 在专业统计学软件(SPSS19.0)中处理和分析研究数据,研究出现的计量数据,采用(x±s)形式表示,接受t检验;研究出现的计数数据,应用(n,%)形式描述,接受?字2检验,当P

2结果

2.1 IVF-ET结局比较 两组患者临床妊娠率、宫外孕率、早期流产率等指标比较,差异无统计学意义(P>0.05),见表1。

2.2不良反比较 甲组患者未出现明显不良反应,乙组患者出现2例蜂窝织炎,5例臀部硬结,不良反应发生率为14.00%,经外科治疗后均好转。两组患者不良反应发生率比较,差异有统计学意义(?字2=15.0538,P=0.0001)。

3讨论

体外受精-胚胎移植(IVF-ET)是临床常见的辅助生殖技术,在促排卵过程中,促性腺激素释放激素类似物及促性腺激素释放激素拮抗剂的应用,对内源性促黄体生成素的分泌进行抑制,降低黄体期孕酮水平[2]。取卵过程抽吸调卵泡颗粒细胞,减少黄体细胞数,均导致黄体功能不足。在IVF-ET黄体期缺乏黄体生成素的支持,会影响雌孕激素分泌,从而影响胚胎种植率和妊娠率,同时增加流产风险[3]。因此加强IVF-ET黄体支持,对改善黄体功能、增加胚胎种植率至关重要。

黄体酮用于黄体支持的临床价值是临床公认的,有利于提高胚胎种植率和临床妊娠率。黄体酮给药方法较多,如肌注、口服、阴道给药等。黄卡立等[4]研究发现黄体酮口服和黄体酮针剂进行IVF-ET术黄体支持所获得的妊娠结局一致。项云改等[5]提出黄体酮经阴道给药进行黄体支持,可获得与黄体酮针剂相同的治疗结局。黄体酮三种给药方式各有优缺点,经阴道给药可减轻患者痛苦,但给药频率与药物所含微粒化孕酮水平有关,国内研究甚少;长期注射会引起局部硬结,甚至形成脓肿,严重时需要手术治疗;口服给药最方便,但药物经胃肠吸收后迅速代谢,生物利用度有待商榷[6-7]。

本文研究对比分析了地屈孕酮和黄体酮针剂的临床效果,结果显示两组患者临床妊娠率、宫外孕率、早期流产率比较,差异无统计学意义(P>0.05),表明地屈孕酮和黄体酮针剂进行黄体支持可获得一致的IVF-ET结局。地屈孕酮是黄体酮的异构体,与孕激素受体的亲和力较强,口服后生物活性高;同时,地屈孕酮无雄激素、雌激素、肾上腺皮质激素样作用,不会引起女胎男化、胎儿畸形等[8]。从2.2发现地屈孕酮未见明显药物不良反应,安全性更高。地屈孕酮给药方便,可提高患者的耐受性和依从性,但美中不足的是相对黄体酮针剂来讲地屈孕酮费用较高。

综上所述,IVF-ET术给予地屈孕酮进行黄体支持,可获得与黄体酮针剂一样的IVF-ET结局,可考虑将地屈孕酮代替黄体酮针剂。抛开费用问题,地屈孕酮是一种方便、有效的黄体支持方法,具有重要的临床价值。

参考文献:

[1]黄卡立.两种黄体支持方法在多囊卵巢综合征不孕患者体外受精-胚胎移植后妊娠结局的对比研究[J].中国实用医药,2010,5(9):79-80.

[2]郭畅,李桂荣,韩宝生,等.不同黄体支持方案对多囊卵巢综合征患者行IVF-ET治疗后妊娠结局的影响[J].中国煤炭工业医学杂志,2013,16(12):1964-1966.

[3]周卫琴,夏飞,何琦,等.不同黄体支持方法对体外受精-胚胎移植结果的影响[J].实用医院临床杂志,2014,11(5):57-59,60.

[4]黄卡立,檀大羡.3种黄体支持方法在体外受精-胚胎移植术后对妊娠结局的影响[J].中国计划生育和妇产科,2010,02(3):5-7.

[5]项云改,宋玉霞,李艳,等.不同黄体支持方案对体外受精-胚胎移植结局的影响[J].中国妇幼保健,2015,30(15):2390-2392.

友情链接