公务员期刊网 精选范文 统计学的参数范文

统计学的参数精选(九篇)

前言:一篇好文章的诞生,需要你不断地搜集资料、整理思路,本站小编为你收集了丰富的统计学的参数主题范文,仅供参考,欢迎阅读并收藏。

统计学的参数

第1篇:统计学的参数范文

在数学教学中渗透游戏教学,可以使学生在身心愉快的状态下学习数学,有益于智力残疾儿童智力的开发,充分挖掘智力残疾儿童的潜能,补偿智力残疾儿童的身心缺陷。

一 巧设游戏,诱发兴趣

学习兴趣是学习动机的重要心理成分,它是学生主动探究知识的助力器。让学生在学习过程中带着愉快的情感色彩去学习,其学习的效果最佳。托尔斯泰曾指出:“成功的教学所需要的不是强制,而是激发学生的兴趣。”教学实践证明:浓厚的学习兴趣可以让智力残疾问题的大脑处于最活跃的状态,能最有效地激发学生的学习动机,调动其学习的积极性,促使其自主地投入到学习活动中,从而有效地获取知识,而游戏则是智力残疾儿童最喜欢的一种活动。又由于智力残疾儿童的注意力极其不稳定,易被其他事物所吸引,他们集中注意力的时间大约只有10分钟左右,教师在教学中要善于变换教学方式,采用新的教学方法来吸引儿童的注意,并积极地、有意识地培养他们注意自己不感兴趣的东西,发展他们的有意注意,以提高数学教学的课堂效率。

1.课前游戏,吸引注意,激发兴趣

刚上课时由于学生课间活动刚刚结束,他们心理还处于活动的兴奋状态,无法马上集中进入学习状态,所以在新课前安排一个小游戏,便能够及时地吸引学生的注意力,激发智力残疾儿童的学习兴趣。

2.新课游戏,降低难度,培养兴趣

在讲授新课时,由于单纯的算理讲解显得枯燥无味,智力残疾儿童也较难理解,而他们的注意力又具有极其不稳定的特点,所以容易走神,不爱学习。教学中笔者常把这些新知识编成游戏的形式来进行教学,在游戏中渗透新知识,使学生在轻松、愉快的情境中掌握新知识,降低了学习的难度,培养了智力残疾儿童学习数学的兴趣,提高了智力残疾儿童学习数学的积极性。如在教学“两步混合运算式题”时,讲解其算理时,笔者就安排了“排队上车”的游戏,在上车的人群中有年迈的老奶奶、两个抱孩子的阿姨和几个小学生。让他们先根据平时乘车的经验排队上车,其余同学看看他们上车时是不是个文明的乘客,再进行讨论和评价,学生讨论得出上车的顺序应该是:先让老奶奶上车,再让两个抱小孩的阿姨先后上车,最后是几个小学生按顺序先后上车,那他们就得按到的先后顺序排队上车。这时教师进而把式题中的小括号比成“老奶奶”;把乘法和除法比成“抱孩子的阿姨”;把加法和减法比成“小学生”。这样两步混合运算式题的运算顺序,学生就能较轻松地掌握了,增强了学习的自信心,培养了学习数学的兴趣。

3.课后游戏,巩固新知,提高兴趣

在巩固练习时适当安排游戏,可以放松一下学生的大脑,活跃课堂气氛,让学生在游戏中巩固所学的新知识,提高学生的学习兴趣。如教学“时、分、秒”时,在巩固练习时笔者就安排了一个“找朋友”的小游戏,笔者在硬纸板上分别画了几个钟面,再用几张卡片分别写出钟面上所表示的时间,分别发给两组学生,其中一组学生拿“钟面”,另一组学生拿着表示相应钟面时间的卡片,接下来让全班同学一起唱《找朋友》的歌,这两组同学就迅速地找到与自己对应的同学,与其手拉手,再分别说出自己所持有“钟面”的时间是……找对朋友的同学,教师给予表扬、奖励,找不到朋友的,大家帮忙找。

在数学教学中穿插游戏活动,能充分引起学生的有意注意,提高学生学习数学的兴趣,激发学生的好奇心、求知欲。使学生在宽松、愉快的环境下学习知识、巩固知识。

二 利用游戏教学实施情感缺陷补偿

情感在一个人认识世界和改造世界的活动中起着很重要的作用,它是人生的一种调味剂,智力残疾儿童也不例外,但由于他们的情感存在着缺陷,他们的身心发展将受到严重的阻碍,所以在教学过程中补偿智力残疾儿童的情感缺陷具有很重要的意义。而游戏教学是补偿智力残疾儿童情感缺陷的重要途径。在教学新知识时,通过游戏的形式进行教学,减少学生掌握抽象知识的困难,学生也能在较轻松的氛围中了解和掌握新知识,获得成功的体验,增强学习的自信心,使学生获得良好的情感体验,从而达到情感缺陷的补偿作用。

三 利用游戏教学创造性地使用教材

随着新课程的改革与实施,我们的全日制培智教材有的内容已无法适应教育教学发展的需要,与智力残疾儿童的生活实际脱轨,如“珠算加法”“角和分的认识”等,由于智力残疾儿童缺少生活的经验,学习这些内容就有一定的困难。如教学“角、分的认识”时由于目前市面上已不用“分”的钱币单位了,所以在教学时笔者把这方面内容改为“元、角的认识”,并安排了“购物”的游戏让学生在游戏中进一步认识了以“元”和“角”为单位的人民币。

根据智力残疾儿童的发展特点,结合他们的生活实际,在数学教学渗透游戏教学,创造性地使用教材,贴近孩子的生活实际,为学生更好地适应社会生活打下了坚实的基础。

四 利用游戏教学增强社会适应能力,回归主流

第2篇:统计学的参数范文

关键词:通用技术;参与性;有效教学

随着科学技术的飞速发展,技术已经成为人类生活中无处不用的客观事物,并且也成为影响社会进步的重要因素。因此,技术教育就成为青少年培养基本素养的教育,通用技术课程就成为开发青少年潜能、促进青少年思维发展的基础课程。但是,作为一门新的学科,通用技术的教学无论在教学资源的开发,还是在教学方法、手段上都存在着一定的问题。本文中笔者提出了一些在通用技术课堂中提高学生参与性、提高教学效果的教学策略。

一、将教师引导与学生探究学习相结合,创设良好的学习环境

在教学中,学生是学习的主体,为了激发其开发自身思维的能力,教师不应该单纯地进行知识的灌输,而应该在教师教导的基础上给予学生更多的思考和操作的空间。

首先,教师应该创设轻松、活泼的课堂环境,给予学生更多的肯定与鼓励,激发学生的学习热情。其次,教师要能根据教学内容有效地设置问题,让学生直接参与和经历,调动学生积极地思考和解决问题。如在学习《设计中的人机关系》这一节时教师就可以提出:“观察一下教室,说出哪些物品构成了人机关系”的问题,学生通过对亲身经验的讨论和回答,就能准确地掌握“机”和“人机关系”的含义。再次,教师要在事先精心地做好教学设计的基础上,给予学生足够的时间来分析和探索,如在学习《设计中的人机关系》中,教师完全可以利用已有的教学设施,通过层层递进的提问方式,让学生相互讨论、自我探究,掌握学习要点。教师可以提问一些“人体哪些部位与椅子构成人机关系”“大概多高的椅子坐起来最舒适”“学校里面有哪些设计不合理”等问题,让学生对整个知识点进行系统的讨论和理解。因为课堂中问题的设置,使得学生参与课堂的兴趣加大,自主探究的能力也得到了开发,同时师生之间和生生之间的互动更为有效,从而达到最好的学习

效果。

二、将教材知识与生活实际相结合,激发学生的学习兴趣

在通用技术这种立足实践、高度综合、注重创造、科学与人文融合的课程教学中,假若教师纯粹地宣读课本、陈列知识点,则不易引起学生的学习兴趣。所以,教师应该有意识地将学生的学习阵地从书本中转移到生活中,加强教材知识和生活实际的结合。例如,直接将一些生活中常见的、生动有趣的事件引入课堂,然后再根据教学内容进行适当的深入和拓展,这样教学内容由浅入

深、教学内容形象生动,就会使学生学起来感觉轻松,学习兴趣自然得到提升,也能自主地、积极地参与到课堂之中,在实践操作之中理解课本知识、学习技术。

在学习《发现与明确问题》这一章时,为了明确在日常生活中发现“问题”在技术探究中的重要性,教师可以从大家熟知的牛顿和苹果的故事引入,并且趁热打铁拿出自己事先做好的取碗器,来展示如何在较深且口径小的容器中取出盛有食物的碗。因为学生在生活中也可能遇到在用高压锅等炖菜时,因为太烫又怕打翻食物,而无法取出碗的状况。所以,这一设计无疑会引起学生对生活中“发现问题”的兴趣。

这种寓生活知识讲授课本内容的教学,能使学生感受到通用技术课程并不是枯燥无味的,其所学的内容能够解决实际问题。这种贴近生活的教学直观、生动,能够有效地提高学生的课堂参与性。

三、将通用技术与信息技术相结合,实行多样化的教学模式

信息技术和通用技术的教学整合对学生的学习以及教师的授课都有极大的帮助,信息技术是通用技术教学的重要工具,利用多媒体教学技术、计算机技术、网络技术等能将通用技术的课堂变得更加多样化,增加其吸引力和趣味性。信息技术能将文字、影像、图片资料等集于一体,这使得通用技术课程的教学内容能从抽象变得具体,降低技能学习的难度。同时,声情并茂、形式多样的教学方法也能有效地激发学生的学习兴趣,促其积极地进行探索学习。

通用技术课程是立足于学生的“做中学”和“学中做”的课程,同时也是一门强调各学科、各方面知识的联系和综合运用的课程。所以,在课堂中提高学生的参与性,能促进通用技术的有

第3篇:统计学的参数范文

1.医学统计学标准化试题库建立的必要性

近年来选修医学统计学的学生逐渐增多,考试的客观性、公正性显得尤为重要。当前,不同的学校采取的考试方式不尽相同:有的学校建立了“整卷库”,以整套试卷为单位进行存储,考试时随机抽取一套试卷对考生施测,这种方式固化了试卷结构,不能根据实际需求灵活调整;有的学校简单地将试题按章节存放在一起,试题未经测试与合理的分析,未按能力层次及学科要求进行划分,考试时按章节选出一部分试题组卷,费时又费力;还有的学校指定每位代课老师出一定数量的题目,最后把所有老师提交的题目汇总、组合成卷,由于代课老师往往根据课堂上强调的授课重点出题,因此不能全面考察学生的真实水平。可见,医学统计学考试制度存在诸多问题,要想通过考试客观、准确地评价每个考生的真实能力,充分发挥考试对教学的反馈作用,实现科学化、标准化、规范化、公正化的考试,建立高质量的医学统计学标准化试题库〔1〕势在必行。所谓试题库〔2〕(itembank),并不是试题的简单堆集,而是以一定的教育测量理论为基础,通过相应的数学模型对试题进行多项性能指标分析后,选出符合要求的优秀题目,按次序集中储存的一种形式,并能按要求调出所需试题,最终按规定的条件组合成卷〔3-5〕。医学统计学标准化试题库以合格、优秀的试题为基本单位,能克服现有考试制度的弊端。因此,建议建立医学统计学标准化试题库。

2.理论依据———项目反应理论(itemresponsetheory,IRT)

建设医学统计学标准化试题库的中心环节就是命题、选题。选题时必须根据一定的评价指标对试题进行评估,优秀的、符合要求的试题方可进入试题库。教育测量是以一定的理论为基础,目前用于试题评价的理论主要有经典测量理论(classicaltesttheory,CTT)和项目反应理论(itemresponsetheory,IRT)〔6,7〕。CTT存在很多无法克服的技术问题,如具有试题依赖性和样本依赖性、被试的能力分数与试题难度未建立在同一量尺上、忽略了每位被试的反应组型等等〔8-11〕。于是,近代在CTT基础上发展起来了一种新的测量理论,即IRT,又称潜在特质理论(latenttraittheory)或项目特征曲线理论〔12〕(itemcharacteristiccurvetheory)。IRT以几项基本假设(如单维性假设、局部独立性假设〔13,14〕等)为前提,试图通过建立恰当的数理统计模型来反映被试特质水平、试题参数与该被试在试题上的反应表现之间的关系。相对于CTT,IRT的优势主要有:(1)具有试题独立性和样本独立性,即扣除测量误差的影响后,被试能力参数的估计值不会随试题的不同而不同,试题参数的估计值也不会随被试的不同而不同。(2)每位被试具有相应的测量误差。(3)考虑了每位被试的反应组型。(4)引入了信息函数的概念,其可代替CTT中信度的概念〔15〕。IRT克服了CTT的不足,已逐渐成为试题评价的主流理论。许多大型的考试如美国的研究生入学考试GRE及著名考试TOFEL等试题评价均采用了IRT〔16〕。本文也将应用IRT,阐述医学统计学标准化试题库建设的基本思路。

资料与方法

1.资料

从中山大学公共卫生学院资料库中搜集2008年至2011年期间的医学统计学考试试卷,共5116份。试题题型主要是单项选择题、简答题和计算分析题。这些试题面向7个不同专业的考生,包括临床专业、预防专业、药学专业、法医专业、口腔专业、康复专业以及护理专业。此外,这些考生来自于不同层次,包括本科生、硕士生。

2.方法

IRT强调的核心是数学模型的建立和对模型中各个参数的估计〔13〕,通过对模型中各个参数适当估计和选取,解决在现实中CTT遇到的大部分问题。IRT假定学生对测试项目的反应不仅受到特定“能力”的影响,还受到许多随机因素的影响,其将被试的能力看作是一个潜在的不可观测的变量,同时将难度、区分度、猜测度等参数看作是项目的固有属性,独立于被试样本,并将被试在某项目上的反映情况与该被试的特质水平联结起来,与表示试题特性的参数一起,共同建立起数理统计学概率模型〔17,18〕。不同形式的数据应采用不同的模型进行拟合。本研究拟应用IRT,从以下几个方面进行分析。

(1)考生反应组型的整理

采用EpiData3.1软件包,根据搜集到的试题输入每位受试者的反应组型(responsepattern),即:考生在一组测验试题上的作答情形。数据处理如下:对于单项选择题,假定某考生对试题i的反应为ui,其中答对用ui=1来表示,答错用ui=0来表示(属于二元化计分);对于简答题,每一道简答题满分为h=6分,我们将其分为以下四个等级:h=0分、0<h≤2分、2<h≤4分、4<h≤6分,分别用0,1,2,3来表示(属多元计分);对于计算分析题,每一道计算分析题满分为k=12分,我们将其分为以下四个等级:k=0分、0<k≤4分、4<k≤8分、8<k≤12分,分别用0,1,2,3来表示(属多元计分)。

(2)模型选择

①单维三参数logistic模型(3parameterlogisticmodel,3PLM)对于单项选择题,其反应数据为二元化计分形式,项目反应理论中可采用的数学模型有logistic模型和正态卵形模型,其中应用最广的是前者〔9〕。logistic模型根据参数数目的不同,可分为单参数模型、双参数模型和三参数模型〔19〕。在理论和实践中,三参数模型得到了充分的验证,相对成熟、可靠,并且可以提供更多的试题信息,能更好地对参数进行估计〔20〕。因此,本文对单项选择题的数据采用单维三参数logistic模型〔21-22〕进行处理,其表达式如下:Pi(θ)=ci+(1-ci)eDai(θ-bi)1+eDai(θ-bi)(1)其中θ表示考生能力估计值;ai表示第i题的区分度系数;bi表示第i题的难度系数;ci表示第i题的猜测度系数;D表示标化因子,一般取D=1.702〔19〕;Pi(θ)表示能力为θ的人答对此题目的概率。②等级反应模型对于简答题和计算分析题,将原始分数进行转化后,反应数据变换为多元计分形式,此时,可采用项目反应理论中的等级反应模型〔23-25〕(gradedresponsemodel,GRM)。GRM假设每一个反应类别各自对应一条特征曲线,如果对某试题i而言,被试的反应可以划分为g+1类,其得分可以表示如下:Xi=0,1,……,g,那么被试在该试题上恰好得某一等级g分的概率可表示如下:Pi,k(θ)=P*i,k(θ)-P*i,k+1(θ)(2)公式(2)中,Pi,k(θ)表示对于试题i而言,能力值为θ的被试恰好得k分的概率;P*i,k(θ)表示对于试题i而言,能力值为θ的被试得k分以及k分以上的概率,P*i,k+1(θ)表示对于试题i而言,能力值为θ的被试得k+1分以及k+1分以上的概率。其中P*i,k(θ)按双参数logistic模型可以写为:P*i,k=11+e-Dai(θ-bi,k)(3)公式(3)中,θ、ai、D的含义与公式(1)相同,bi,k表示第i题第k个等级的难度系数。

(3)试题参数估计

应用MULTILOG软件,采用最大边缘似然估计〔26,27〕(marginalmaximumlikelihoodestimate,MMLE)法来估计IRT模型中的参数。以L(ui|θ)表示能力为θ的某考生对题目i的反应ui(答对:ui=1;答错:ui=0)的概率,用对数似然函数表示为:L(u1,u1,…,un|θ)=∏ni=1PuiiQ1-uii(4)其中n为题目数,Puii表示考生答对第i题的概率,Q1-uii表示考生答错第i题的概率。当各参数的偏导数为0时函数取得最大值,分别求得每一个试题相应参数值,即:试题区分度系数ai,难度系数bi,猜测度系数ci。

(4)试题筛选入库

在筛选试题以决定哪些试题可以入库时,不能仅以试题参数作为能否进入试题库的唯一标准,需同时考虑估计出的各试题参数以及任课教师的专业意见,筛选符合一定标准的试题进入试题库。试题难度过大或过小,会使分数呈偏态分布,从而使考试的信度系数值降低,因此,选取难度系数位于[-4.0,4.0]范围内的试题进入试题库。区分度越大的题目,表明对学业水平不同的考生的鉴别力或区分能力越强。通常,教学过程完毕后进行的考试,是以考察考生对知识掌握情况为目的的,因此,区分度不应过大。我们选取区分度位于[0,3]范围内的试题进入试题库。此外,试题的猜测度也不应太大,猜测度系数过大的试题对于考察学生对知识的掌握意义不大〔28〕,我们将猜测度小于0.25的试题选入试题库。根据试题参数筛选出试题后,再由5~7位任课教师,独立地逐一对初步筛选的试题进行审核,以判断试题文字表述是否恰当、是否会引起歧义、是否符合医学统计学逻辑、是否具有考试价值、是否具有内容典型性、是否具有编写格式统一性,是否重复等,经全部任课教师认可的试题方能最终进入试题库。除了将试题及试题参数录入数据库外,各个试题库还应包括试题编号、试题类型、所考知识点、认知层次、参考答案、选中标识等。医学统计学标准化试题库建立的流程图见图1。结果该研究的预期结果是成功建立医学统计学标准化试题库,该试题库以单个试题为基本单位,每道试题都有编号、题型、难度、区分度、猜测度、知识点、认知层次、参考答案以及选中标识这9个属性,且试题库中的试题参数都建立在同一量尺上。试题库中的所有试题均符合大纲要求,且试题知识覆盖面广,每一章节均有一定数目的试题。该试题库可用于期末考试,也可用于阶段性小测验,可供临床、口腔、康复、护理、预防医学等专业使用,可根据不同专业的不同要求(如预防专业的学生应该掌握医学统计学知识,考试时理应选取难度较大的试题进行测验;而康复专业的学生理解医学统计学知识即可,那么考试时应选取中等难度或低难度的试题进行测验)选取试题,进而实现自动化组卷或者计算机自适应考试,从而使各种考试得以方便、快速、顺利地进行。结论与讨论采用项目反应理论建立的医学统计学标准化试题库可以满足各种目的的考试要求。不仅大大节省了时间、节约了人力,还使考试更加客观、公正,具有重大的实际意义。

在建设医学统计学标准化试题库的过程中,以下几个问题值得引起我们的注意:

1.必须明确医学统计学的教学大纲,并结合本校的实际情况列出考核知识点,然后将搜集到的试题归类于相应的知识点。以知识点而非章节作为试题的属性,更便于我们有针对性的命题、将试题进行分类以及对试题进行搜索。

2.在考生人数和试题库试题题量方面,当然是考生人数越多,试题参数估计的稳健性越好;选入试题库的题量越大、试题知识覆盖面越广越好。但是在实际中,由于考生人数以及符合大纲要求的试题题量有限,可以先根据现有的资源创建试题库,然后不断地修正试题参数,不断地为试题库注入新的“血液”,使试题库不断的发展完善。为了增加试题库题量,我们还可以借鉴兄弟院校的试题,或者组织经验丰富的专家或教师命制新的试题。

3.每一道试题须包括以下9个属性:编号、题型、难度、区分度、猜测度、知识点、认知层次、参考答案以及选中标识,以便于对试题进行分类、存储、检索、维护与管理。

4.医学统计学试题往往带有各种数学符号、表格甚至图形,这就提醒我们在录入试题前,应选择合适的软件平台,以保证所有的试题均能完整无误地输入或输出试题库,以确保各种工作的顺利进行。

第4篇:统计学的参数范文

自从Paelinck提出“空间经济计量学”这个术语,Cliff和Ord(1973,1981)对空间自回归模型的开拓性工作,发展出广泛的模型、参数估计和检验技术,使得经济计量学建模中综合空间因素变得更加有效。

Anselin(1988)对空间经济计量学进行了系统的研究,它以及Cliff和Ord(1973,1981)这三本著作至今仍被广泛引用。Anselin对空间经济计量学的定义是:“在区域科学模型的统计分析中,研究由空间引起的各种特性的一系列方法。”Anselin所提到的区域科学模型,指明确将区域、位置及空间交互影响综合在模型中,并且它们的估计及确定也是基于参照地理的(即:截面的或时-空的)数据,数据可能来自于空间上的点,也可能是来自于某个区域,前者对应于经纬坐标,后者对应于区域之间的相对位置。

国外近几年空间经济计量学得以迅速发展,如Anselin和Florax(1995)指出的,主要得益于以下几点:

(1)人们对于空间及空间交互影响的作用的重新认识。对空间的重新关注并不局限于经济学,在其它社会科学中也得以反映。

(2)与地理对应的社会经济大型数据库的逐步实用性。在美国以及欧洲,官方统计部门提供的以区域和地区为统计单元的大型数据库很容易得到,并且价格低廉。这些数据可以进行空前数量的截面或时空观测分析,这时,空间(或时空)自相关可能成为标准而非一种特殊情况。

(3)地理信息系统(GIS)和空间数据分析软件,以高效和低成本的计算技术处理空间观测的发展。GIS的使用,允许地理数据的有效存储、快速恢复及交互可视化,为空间分析技术的艺术化提供了巨大的机会。至少目前线性模型中,缺少针对空间数据和空间经济计量学的软件的情况已经大为改观。目前已有一些专门的空间统计分析软件,并且SAS、S-PLUS等著名统计软件中,都已经包括用于空间统计分析的模块。

(二)空间经济计量学与相关学科的关系

空间统计学是研究空间问题的另一门学科,它是应用数学的一个快速发展的分支。它起源于20世纪50年代早期,用以帮助采矿业进行矿藏量的计算。最早的工作是采矿工程师D.G.Krige和统计学家H.S.Sichel在南非进行的。70年代随着计算机的普及以及运算速度的大幅提高,空间统计分析技术逐渐扩展到地球科学的其它领域。目前已经普遍存在于需要处理时间上或空间上相关的数据的科技领域中。

空间经济计量学与空间统计学的区分不太容易。Haining和Anselin的观点认为空间统计学的研究大多由数据驱动,而空间经济计量学由模型驱动,即从特定的理论或模型出发,重点放在问题的估计、解释和检验上。空间统计学的主流是研究生态学和地质学中的物质现象,空间经济计量学主要研究与区域及城市经济有关的模型。有一种观点认为二者的区分应基于作者将其工作对应于空间经济计量学还是空间统计学,这种区分办法可能较为简单。

地质统计学(Geostatistics)发展于20世纪60年代,主要用于研究地质学现象的空间结构和进行空间估值。例如,在探矿过程中,通常是在空间上布点进行钻探,然后对采样得到的样品进行分析,估计矿藏的分布和储量。由于矿藏不开采的话,在时间上结构几乎是不变的,因此地质统计学研究的问题主要是空间相关。空间经济计量学所研究的问题不仅存在空间相关,往往所研究的问题在时间上也存在相关。

在区域经济学的理论中,人们建立了各种理论以及关系式来描述人类在空间上的行为,如研究城镇问题的“引力模型”等。但在利用模型进行定量研究问题的时候,需要将理论或关系式用数学模型来进行刻划,利用统计方法对模型进行估计、检验,并进行评价,这些正好是属于经济计量学研究的范畴。应该说,空间经济计量学主要研究区域经济问题,依据的是区域经济学理论,但它还需要综合数学,以及空间统计学等学科,因此它不等同于区域经济学,而是一门交叉学科。

二、研究的问题

空间经济计量学主要研究存在空间效应的问题。空间效应主要包括空间相关和空间差异性。在研究中涉及空间相邻、空间相邻矩阵等概念。

(一)空间相关

空间相关指在样本观测中,位于位置i的观测与其它j≠i的观测有关,即

附图

存在空间相关的原因有两方面:相邻空间单元存在测量误差,空间交互影响的存在。测量误差是由于调查过程中,数据的采集与空间中的单位有关,如数据是按省、市、县等统计的,但设定的空间单位与研究问题不一致,存在测量误差。

空间相关不仅意味着空间上的观测缺乏独立性,并且意味着潜在于这种空间相关中的空间结构,也就是说空间相关的强度及模式由绝对位置和相对位置(布局,距离)决定。

对于空间相关,空间自回归通常是其核心内容,空间自回归模型的一般形式为:

附图

在这个模型中,β解释变量X(n×k矩阵)的参数向量(k×1),ρ是空间滞后相关变量的参数,λ是残差空间自回归(空间AR)结构中的参数。

W[,1]和W[,2]为n×n矩阵,是标准化或未标准化的空间加权矩阵,分别对应于因变量以及扰动项中的空间自回归过程,这两个矩阵可以不同,这意味着两个过程由不同的空间结构生成。

这个模型可以退化成为普通的线性回归模型、(纯)空间自回归模型、混合回归与空间自回归模型、残差空间自回归模型等形式。

对这个模型,普通最小二乘估计不仅是有偏的,而且是不一致的,参数的估计通常采用极大似然估计,近几年,有学者尝试采用贝叶斯估计对参数进行估计。

(二)空间差异性

空间差异性指空间上的区域缺乏均一性,如存在中心区和郊区、先进和后进地区等。例如,我国沿海地区和中西部地区经济存在较大差别。

对于空间差异性,只要将空间单元的特性考虑进去,大多可以用经典经济计量学方法解决。但当空间差异性与空间相关共同存在时,经典经济计量学方法不再适用,而且这时问题可能变得非常复杂,因为这时要区分空间差异性与空间相关可能非常困难。

研究空间差异性的模型主要有:

E.Casetti提出的空间扩展模型(1972)和回归参数漂移分析方法(简称DARP)模型(1982)。这时,空间差异性表现为模型参数随空间位置变化,并以空间单元的位置信息作为辅助变量(称为扩展参数)。

y=Xβ+ε

附图

模型(3)为以经纬坐标(Z[,x],Z[,y])作为扩展参数的空间扩展模型。同样可以以到中心区域的距离作为扩展参数设计模型。

将模型(3)的第二个式子右边加入随机扰动项,则为DARP模型。E.Casetti(1992)进一步提出了贝叶斯空间扩展模型。

D.P.McMillen和J.F.McDonald(1997),C.Brunsdon,A.S.Fotheringham;MartinCharlton(1996),提出地理加权回归模型(简称GWR模型)。

附图

(三)时空数据空间模型

在模型中考虑时间维增加了描述的复杂性,但综合时间空间的模型在实际工作中非常有用。在经典的经济计量学模型中,这是综合截面和时间序列数据的情形。如果数据不存在空间相关,则可以采用PanelData模型。Anselin(1988)将似不相关(SUR)模型扩展到空间的情形,提出空间SUR模型。

三、应用前景及需要进一步研究的问题

(一)在中国的应用前景

在我国,地质统计学是较早应用空间统计学的领域,在20世纪80年代中国科学院就有人研究并应用Krige模型。空间统计学除了在地质学的研究中发挥作用,近十年来,周国法、徐汝梅等学者研究生态学中的空间相互作用,并于1998年出版了《生物地理统计学》。20世纪80年代以来,我国利用卫星遥感技术,对土地、森林、农业、矿产、能源、作物估产、灾患检测等进行应用,开始了我国空间统计学在经济领域应用中统计调查的工作,为了将空间遥感调查技术逐步纳入到我国统计的常规性工作中,1998年10月,国家统计局成立了空间统计研究室,并与中国科学院地理所合作,组成了“空间信息多重采样设计的空间统计学应用研究”课题组,运用遥感技术和空间分析对我国农业耕地、森林、草地等资源以及城镇动态变化进行调查,该项目获得国家统计局2000年课题研究一等奖。

在我国地质统计学、生物地理统计学及利用遥感技术进行的各种调查,都属于空间统计学的范畴。地质统计学、生物地理统计学主要研究空间相关及空间估值,在生物地理统计学的研究中还包括物种的空间扩散过程。所用的方法主要是各种Krige模型、方差图模型,以及空间自回归模型。空间动态采样的研究,与地质矿产调查类似,主要涉及样本在空间上的布局、有效样本量的确定、采样误差的计算等问题的研究,根据其研究的问题和方法,也可以将其归入统计学的抽样调查分支之中。

随着我国按地区进行统计的统计基础资料不断积累,尤其是遥感技术应用到统计调查中来,都将使得按时间和空间排列的数据资料极为丰富,对数据进行空间甚至时空分析成为可能,人们将逐渐从时间的角度转向普遍从时空的角度来考虑问题。

从经济分析的角度看,空间经济计量学在我国以下几个方面将有很大的应用前景。

由于区域之间存在相关性,或者存在差异性,因此一项政策对每个区域的影响是不同的,通过运用空间经济计量学方法对各区域进行研究之后,找到政策在各区域上作用的关系,对于政府决策、正确制订政策具有很大的参考价值。

由于区域之间存在先进地区和后进地区,通过空间经济计量学方法可以对先进地区与后进地区之间的相互关系进行研究。

按区域编制投入产出表时,空间的概念将发挥作用。

对房地产的价值进行评估时,在考虑外界影响因素的基础上,充分考虑地区之间的相互关系,将对正确评估房地产的价值有很大帮助。

对环境污染进行研究时,运用空间经济计量学方法对污染的传播方式进行研究,有助于人们对环境污染进行控制。

在交通领域的研究,可以利用空间经济计量学方法对人员、货物在空间上的流动方式进行研究,同时对通道上的不同区段进行研究。

在对某种疾病(如流感)在空间上的传播过程进行研究之后,对于疾病的预防控制将有很大的帮助。

建立了空间的概念之后,人们对于在空间上的抽样将综合考虑空间单元之间的相关性。而空间抽样在空间上的布点方式也可以用作商业网点的布局研究。

总之,只要问题涉及到空间的概念,空间经济计量学就将发挥其作用。对空间经济计量学的深入研究及应用,将促使人们面对问题的时候,从空间或时空的角度思考问题。

(二)需要进一步研究的问题

目前的研究中,系统内的空间单元受到系统内其它位置单元的影响,但边界处的单元还受到系统外与之相邻的单元的影响,如何将这个影响考虑在模型中值得研究。

在具体问题中,距离的概念需要加以认真对待,单用地理上的距离有时并不合适,例如国与国之间的经济联系在今天并不是距离远近决定的,电子化交易使得资金的流动非常迅速方便,因此,在研究这类问题时,如何将贸易、人员、资金的流动充分考虑到空间加权矩阵中去,尚值得研究。

贝叶斯方法在统计学各个分支的应用越来越广,空间贝叶斯模型也是目前空间经济计量学研究的热点之一。

可变单元的问题。当数据汇总的级别变化,可能整个模型的描述都发生变化,对于不同的问题,可能影响模型变化的汇总的级别也不同,能否有一个统一的模式对系统进行描述尚待进一步研究。

时空数据的综合分析,参数估计的渐近性质,模型的各种检验方法等,还有待进一步的研究。

第5篇:统计学的参数范文

关键词:统计学;地质工程;应用分析

地质统计学是20世纪六七十年展起来的一门新兴的数学地质学科的分支,是随着采矿业的发展而兴起的一门交叉学科。地质统计学是以区域化变量理论为基础,以变异函数为主要工具,研究那些在空间分布上既有随机性又有结构性,或空间相关和依赖性的自然现象的科学。国内外地质统计学的理论、方法及应用均达到了成熟的阶段,并形成了具有较好应用价值的软件。具有代表性的有:法国巴黎高等矿院地质统计学研究中心研制的ISATIS;美国斯坦福大学应用地球科学系C.v.Deutsch和A.G.Journel共同编写的GSIJB程序包,等等;北京科技大学地质系也编写出地质统计学方法研究程序集。

近年来,克里金技术在石油勘探开发中的应用日益广泛深入,效果也越来越明显。主要应用包括:储层预测,即估计地层的埋深、层厚、孔隙度、渗透率和含油饱和度等地质和地球物理参数的空间分布,这些变量在空间既存在一定的空间分布规律(结构性),又存在局部的变异性(随机性),这些变量都属于区域化变量,因此可以用地质统计学方法对这些变量进行研究绘制各种地质图件;利用地质统计学的变差函数研究储层的非均质性及各向异性;数据整合,即整合地震、测井、钻井和露头等各种信息并进行建模。除此以外,随机模拟方法和油藏数值模拟相结合,可以预测油藏的动态特征,为制定和调整开发方案并提高采收率提供依据。

一、地质统计学研究方法的基本理论

(一)基本原理

当一个变量呈现为空间分布时,就称之为区域化变量。这种变量常常反映某种空间现象的特征,用区域化变量来描述的现象称之为区域化现象。区域化变量,亦称区域化随机变量,G.Matheron(1963)将它定义为以空间点x的三个直角坐标为自变量的随机场。区域化变量具有两个最显著,而且也是最重要的特征,即随机性和结构性。区域化随机变量之间的差异,可以用空间协方差来表示(见图1)。

(二)变差函数

一维变差函数的定义:假设空间点x只在一维x轴上变化,把区域化变量Z(x)在x,x+h两点处的数值之差的方差之半定义为区域化变量Z(x)在x方向上的变差函数,记为:

r表示变差函数;E表示数学期望;Var表示方差。也就是说变差函数依赖于x和h两个自变量。在本征假设条件下,变差函数仅依赖于分割它们的距离h和方向a。而与所考虑的点x在待估域内的位置无关,因此变差函数更明确定义为:变差函数是在任一方向a,相距h的两个区域化变量Z(x)和Z(x+h)的增量的方差之半。

变差函数是一个距离的函数,描述不同位置变量的相似性,r值越大,相关越差。通常情况下,r值随着距离矢量h的增大而增大,直到h到达一定值时,r达到极大值,而后保持这个常数值不变。

(三)克里金方法

当随机变量X的数学期望对整个区域都为已知时,采用的克里金方法就是简单克里金方法。在进行简单克里金估计时,我们假设整个区域的均值是已知的。然而储层物性的均值是随着局部区域的不同而变化的,上述假设在绝大部分的情况下是不成立的,普通克里金解决了这一问题。当随机变量X(u)的数学期望是一个和u无关的常数,但这个常数未知时,导出的克里金方法就是普通克里金方法。

(四)协克里金

1.协克里金方法的原理及其公式。协克里金方法要求主变量与二级变量之间具有良好的相关性。以整合两个变量为例,协克里金估计的主变量和二级变量的线性组合形式如下:

公式中,是位置的估计值,是在位置上的主变量采样值;是对应于该采样点的加权系数。

协克里金有其不足之处,需要建立两个变差函数(主变量、二级变量的变差函数)和一个互变差函数(主变量与二级变量之间的互变差函数)。不仅运算的数据量显著增大了,而且拟合这些变差函数比较困难。在协克里金的计算过程中,相关性较好的数据对相关性较差的数据存在屏蔽效应。由于这些原因,这种完全协克里金在实际应用方面受到限制。于是,人们发展了配置协克里金,这种方法保留了协克里金的优点,又不用同时建立三个变差函数。

2.协克里金算法中几个关键的步骤。在使用协克里金方法时,要求两组数据之间具有良好的相关性。图1是工区井点处单位厚度旅行时差与孔隙度的交汇图,计算单位厚度旅行时差与孔隙度的相关系数为0.880655,具有良好的相关系数。

相关函数的计算与拟合。由于实际数据测量点个数的不足,我们需要对相关函数进行计算并拟合,绘制出完整的相关函数图形,通过变差函数计算方法和线性规划拟合方法,计算拟合相关函数。

选择合适的搜索半径。协克里金方法至少使用两种数据,一般叫做硬数据和软数据,通过实际资料处理,认为这两种数据不宜用相同的搜索半径。对于硬数据,应采用与硬数据的变程相当的搜索半径,原则是尽可能地应用精确的硬数据;对于软数据,搜索半径不宜过大,因为软数据本身不够精确,会把自身的偏差带到估计值中。

处理加权系数。最后一步是处理加权系数,由于负的加权系数会导致奇异的估计值,因此需要采用线性规划方法处理加权系数。

二、地质统计学方法的应用

(一)储层预测

对储层参数进行科学有效的预测,一直是石油地质学的热点和难点。最初采用传统的数理统计方法,但这种纯数学的方法不考虑储层参数之间的空间连续性和相关性,不带任何地质意义,对储层参数预测具有很大的局限性。而地质统计学方法以区域化变量理论为基础,充分考虑了地质参数空间变化的趋势、方向性及2样点参数的相互依赖性,利用克里金方法的插值和外推功能,求出比较符合地质规律的地质统计模型和方法,来表征各种储层参数的变化规律,然后用这种规律,对参数(如孔隙度和渗透率等)的空间展布进行比较合理而有效的预测。

(二)储层的非均质性及各向异性研究

储层非均质性研究是油藏描述的重要内容,其参数的空间分布不仅具有随机性,而且具有结构性。从地质统计学关于变差函数的基本理论出发,在综合分析的基础上,构造了一种定量表征储层平面非均质性的数学模型,计算结果所反映的各类储层的平面非均质特征符合沉积的基本规律,说明这一表征模型用于储层平面非均质性定量评价中是可行的。

(三)不确定性描述

静态、动态的确定性模型,很难反映油藏的复杂变化,只有通过不确定性描述,从地质统计观点概括和综合地质模型,才能真实地反映复杂的油藏模型。近几年来,地质统计学越来越广泛地用于储层表征,诸如估计孔隙度的空间分布,模拟渗透率的数值连续性,定量估计油藏模型的不确定性,取样设计,流动模拟过程中的敏感性分析和风险分析,等等。它的最大优点就在于能够方便地综合应用各种资料,如地质、地震、测井、生产等各方面的信息,这对岩心取样十分稀疏的油藏的准确描述是关键的。而且不确定性描述能为油藏工程师提供多个可选择的开发方案,有利于综合分析,获得合理的开发决策。

参考文献:

[1]何琰,殷军.储层非均质性描述的地质统计学方法[J].西南石油学院学报,2001,23(3).

[2]李黎,王永刚.地质统计学应用综述[J].勘探地球物理进展,2006,(6).

[3]王自高,何伟,高才坤,卢杰.工程勘察新技术应用与发展思路[J].水力发电,2006,(11).

[4]GUNTER,HOLDER.StatisticsinPreclinicalPharmaceuticalResearchandDevelopment[J].JournaloftheAmericanStatisticalAssociation,2000,95(449).

第6篇:统计学的参数范文

[关键词]岩土参数 变异性 评价分析

[中图分类号] P58 [文献码] B [文章编号] 1000-405X(2015)-7-437-1

随着建筑、交通等建设规模的扩大,建筑物对地基的承载能力、沉降幅度的要求越来越高了。要满足这种高精度的岩土工程设计要求,取得建筑区域的岩土参数,并通过研究岩土参数,更加科学反映建设区域的岩土特质,在施工前对建筑工程带来必要的数据参考,从而保证工程建设的安全性和可靠性。

在工程建设中, 人们认识到同一点不同深度及同一地区的不同点处的岩土参数具有一定的差异, 对岩土参数的空间变异性有一定的认识。但是为了便于原始数据的统计分析而将岩土介质视为均质各向同性地层。却忽略了岩土参数的空间变异性, 而将这种“差异”仅仅作为试验过程中的纯随机误差。在岩土工程领域的可靠性设计中, 若将参数样本统计值直接作为岩土参数的空间统计值, 将对可靠度计算精度产生直接影响。

因此, 岩土参数的空间变异性分析和相关距离的计算一直受到重视。岩土最重要的特征是具有复杂的变异性也即地域特征,导致其参数值有显著不确定性。岩土参数是岩土工程设计时需要考虑的基本要素,同时岩土参数的空间变异性已经被人们所认识,并逐步引入岩土工程的实际分析之中。

本文通过岩土空间参数的变异性来源及其评价分析的阐述,说明岩土参数在岩土工程中的作用。

1岩土参数空间变异性的来源与特征

岩土参数所具有的不确定性除了来自岩土勘察导致的误差外,岩土参数本身也有了随机变量的特性。我们知道,长期地质变迁形成的岩土,其性质极为复杂。岩土因为其非均质和各向异性的特点,使得它具备有空间的变异性,这种空间变异性与建筑勘察时对岩土取样过程中的失真和量测误差,是导致岩土参数变异性的主要因素。

岩土变异性的来源总结起来可以归入以下几类:首先是岩土其本身的变异或者是模型变异,也来自于为试验误差或者是统计误差。而在大样本条件下,并舍弃明显不合理试验值后,可以忽略模型和统计部分引起的变异。根据区域化变量理论,可将展布于一定空间范围内,相互之间具有一定相关性的随机变量视为区域化变量。这恰好反映出岩土参数的空间相关性和随机性。

因此,岩土工程的设计计算中涉及的抗剪强度指标、压缩模量(系数)、孔隙比、容重和渗透系数等都可以看作区域化变量进行统计分析。

2岩土参数变异性的评价分析

岩土参数空间变异性分析,是根据取样并测定的数据资料,分析岩土参数的空间变化特征、参数自身及各参数之间的空间相互关系,以及将分析得到的结果应用于实际的工程中,并对未测点参数进行最优化估值,还可分析预测状态变量的空间分布。

在实际工程设计中,许多岩土参数可以看作是区域化变量。比如土的孔隙度相对密度塑性指数、渗透系数、压缩模量、抗剪( 压) 强度以及某一特定持力土层的厚度等。它们的依随空间位置点而变化, 并且具有两个基本属性,即结构性与随机性。由于区域化变量具有上述特殊性质,如果用经典概率统计方法来研究、描述这类性质的变化是非常不容易的,因为它无法道道岩土参数的空间结构方面的信息。

而通过区域化变量理论中的一个简单工具一一变异函数, 就可以很好的描述区域化变量的上述特性,并对区域化的变异性也能反映。

目前多数岩土工程可靠性分析计算中,岩土参数的变异性是按概率统计中的随机变量变异性来评估的,它采用样本的均方差与样本均值的比值(一般叫做变异系数)来表示,这很容易忽略岩土参数变异性中很重要的特点,即结构性。而我们采用的区域化变量理论中的变异函数来描述岩土参数空间变异性就弥补这一缺点。从而将这类变量的变异性分析的任务得以实现。同时,利用地质统计学方法可以得到的岩土参数空间结构信息,定量的描述岩土参数的空间变异性,更全面的分析岩土参数的空间变化,以及通过岩土工程勘探网的合理布局,从而得到定量的有关岩土参数空间的最优化值。而经典的统计方法使用的标准差,变异系数特征值的离散随机变量等参数,这些值的特征通常能用来总结某个范围内的岩土参数值给定的离散的规模以及总体集中度,却不可能反映岩土参数的空间局部作用域和特征值的一个特定的方向。所以,地质统计学方法可以弥补传统统计方法忽视岩土参数变异性的缺点,从而对岩土参数的空间变异性进行更现实的分析和评价。

3结论

岩土参数的不确定性根源是岩土参数的空间变异性和量测系统变异性所导致的。岩土参数的变异性特征确定了岩土参数的空间分布的结构性和随机性的双重特征,因此我们就用岩土参数的区域化变量理论对岩土参数的空间变异性做出客观的评估。变异函数及其参数的使用,使得我们能够对岩石结构特征进行定量描述,从定量的角度揭示岩土属性空间变异规律,在区域化变量空间结构分析基础上构建出的有别于传统统计方法的方向综合变异指标,然后充分利用经典统计学所丢失的信息,就可以对岩土参数的空间变异性得出可靠的定量评价。地质统计学是岩土工程研究岩土的空间变异性及数学地质领域有效的工具,有很广阔的应用前景,这体现其在储量计算、勘探等领域探索,以及采矿设计和采矿地质等方面都显示了强大的生命力,已经成为描述和考察各种自然资源工程学科。地质统计学研究岩土参数几个空间变异性,可以更全面的揭示岩土参数的空间分布特征,从而更为准确评估建筑工地的岩土特征,为工程施工前的做可靠的参照依据。

参考文献

[1]朱小林:岩上工程参数的评价(岩上工程系列讲座第五讲) [J].工程勘察,1989年5 期.

[2]戴维著,孙惠文,刘承柞译.矿产储量的地质统计学评价( 数学地质进展2)[J].地质出版社,北京,1989年.

[3]王俊庸.地质统计学及共在煤炭资源开发中的应用[J].煤炭工业出版社, 1990

第7篇:统计学的参数范文

统计学研究的对象是数据,数据科学顾名思义也是以数据为研究对象,这产生一种直观的错觉,似乎数据科学与统计学之间存在某种与生俱来的渊源关系。Wu(1998)直言不讳,数据科学就是统计学的重命名,相应地,数据科学家替代了统计学家这个称谓。若此,那是什么促成了这种名义上的替代?显然仅仅因为数据量大本身并不足以促成“统计学”向“数据科学”的转变,数据挖掘、机器学习这些概念似乎就已经足够了。问题的关键在于,二者所指的“数据”并非同一概念,数据②本身是一个很宽泛的概念,只要是对客观事物记录下来的、可以鉴别的符号都可以称之为数据,包括数字、文字、音频、视频等等。统计学研究的数据虽然类型丰富,如类别数据、有序数据等定性数据,定距数据、定比数据等定量数据,但这些都是结构化数据;数据科学所谓的数据则更为宽泛,不仅包括这些传统的结构型数据,而且还包括文本、图像、视频、音频、网络日志等非结构型和半结构型数据,即,大数据。大数据(以半/非结构型数据为主)使基于关系型数据库的传统分析工具很难发挥作用,或者说传统的数据库和统计分析方法很难在可容忍的时间范围内完成存储、管理和分析等一系列数据处理过程,为了有效地处理这类数据,需要一种新的范式———数据科学。真正意义上的现代统计学是从处理小数据、不完美的实验等这类现实问题发展起来的,而数据科学是因为处理大数据这类现实问题而兴起的。因此数据科学的研究对象是大数据,而统计学以结构型数据为研究对象。退一步,单从数量级来讲,也已发生了质变。对于结构化的大规模数据,传统的方法只是理论上的(可行性)或不经济的(有效性),实践中还需要借助数据挖掘、机器学习、并行处理技术等现代计算技术才能实现。

二、数据科学的统计学内涵

(一)理论基础

数据科学中的数据处理和分析方法是在不同学科领域中分别发展起来的,譬如,统计学、统计学习或称统计机器学习、数据挖掘、应用数学、数据密集型计算、密集计算方法等。在量化分析的浪潮下甚至出现了“metric+模式”,如计量经济学、文献计量学、网络计量学、生物统计学等。因此,有学者将数据科学定义为计算机科学技术、数学与统计学知识、专业应用知识三者的交集,这意味着数据科学是一门新兴的交叉学科。但是这种没有侧重的叠加似乎只是罗列了数据科学所涉及到的学科知识,并没有进行实质性的分析,就好似任何现实活动都可以拆解为不同的细分学科,这是必然的。根据Naur(1960,1974)的观点,数据科学或称数据学是计算机科学的一个替代性称谓。但是这种字面上的转换,并没有作为一个独立的学科而形成。Cleveland(2001)首次将数据科学作为一个独立的学科提出时,将数据科学表述为统计学加上它在计算技术方面的扩展。这种观点表明,数据科学的理论基础是统计学,数据科学可以看作是统计学在研究范围(对象)和分析方法上不断扩展的结果。一如统计学最初只是作为征兵、征税等行政管理的附属活动,而现在包括了范围更广泛的理论和方法。从研究范围的扩展来看,是从最初的结构型大规模数据(登记数据),到结构型的小规模数据(抽样数据)、结构型的大规模数据(微观数据),再扩展到现在的非(半)结构型的大规模数据(大数据)和关系数据等类型更为丰富的数据。从分析方法的扩展来看,是从参数方法到非参数方法,从基于模型到基于算法,一方面传统的统计模型需要向更一般的数据概念延伸;另一方面,算法(计算机实现)成为必要的“可行性分析”,而且在很多方面算法模型的优势越来越突出。注意到,数据分析有验证性的数据分析和探索性的数据分析两个基本取向,但不论是哪一种取向,都有一个基本的前提假设,就是观测数据是由背后的一个(随机)模型生成,因此数据分析的基本问题就是找出这个(随机)模型。Tukey(1980,2000)明确提到,EDA和CDA并不是替代关系,两者皆必不可少,强调EDA是因为它被低估了。数据导向是计算机时代统计学发展的方向,这一观点已被越来越多的统计学家所认同。但是数据导向仍然有基于模型与基于算法两种声音,其中,前文提到的EDA和CDA都属于基于模型的方法,它们都假定数据背后存在某种生成机制;而算法模型则认为复杂的现实世界无法用数学公式来刻画,即,不设置具体的数学模型,同时对数据也不做相应的限制性假定。算法模型自20世纪80年代中期以来随着计算机技术的迅猛发展而得到快速成长,然而很大程度上是在统计学这个领域之外“悄然”进行的,比如人工神经网络、支持向量机、决策树、随机森林等机器学习和数据挖掘方法。若响应变量记为y,预测变量记为x,扰动项和参数分别记为ε和β,则基于模型的基本形式是:y=f(x,β,ε),其目的是要研究清楚y与x之间的关系并对y做出预测,其中,f是一个有显式表达的函数形式(若f先验假定,则对应CDA;若f是探索得到的,则对应EDA),比如线性回归、Logistic回归、Cox回归等。可见,传统建模的基本观点是,不仅要得到正确的模型———可解释性强,而且要得到准确的模型———外推预测能力强。而对于现实中复杂的、高维的、非线性的数据集,更切合实际的做法是直接去寻找一个恰当的预测规则(算法模型),不过代价是可解释性较弱,但是算法模型的计算效率和可扩展性更强。基于算法的基本形式类似于非参数方法y=f(x,ε),但是比非参数方法的要求更低yx,因为非参数方法很多时候要求f或其一阶导数是平滑的,而这里直接跳过了函数机制的探讨,寻找的只是一个预测规则(后续的检验也是基于预测构造的)。在很多应用场合,算法模型得到的是针对具体问题的解(譬如某些参数是被当作一个确定的值通过优化算法得到的),并不是统计意义上的推断解。

(二)技术维度

数据科学是基于数据的决策,数据分析的本质既不是数学,也不是软件程序,而是对数据的“阅读”和“理解”。技术只是辅助数据理解的工具,一个毫无统计学知识的人应用统计软件也可以得到统计结果,但无论其过程还是结果都是可疑的,对统计结果的解释也无法令人信服。“从计算机科学自身来看,这些应用领域提供的主要研究对象就是数据。虽然计算机科学一贯重视数据的研究,但数据在其中的地位将会得到更进一步的加强”。不可否认,统计分析逐渐向计算机科学技术靠近的趋势是明显的。这一方面是因为,数据量快速膨胀,数据来源、类型和结构越来越复杂,迫切需要开发更高效率的存储和分析工具,可以很好地适应数据量的快速膨胀;另一方面,计算机科学技术的迅猛发展为新方法的实现提供了重要的支撑。对于大数据而言,大数据分析丢不掉计算机科学这个属性的一个重要原因还不单纯是因为需要统计软件来协助基本的统计分析和计算,而是大数据并不能像早先在关系型数据库中的数据那样可以直接用于统计分析。事实上,面对越来越庞杂的数据,核心的统计方法并没有实质性的改变,改变的只是实现它的算法。因此,从某种程度上来讲,大数据考验的并不是统计学的方法论,而是计算机科学技术和算法的适应性。譬如大数据的存储、管理以及分析架构,这些都是技术上的应对,是如何实现统计分析的辅助工具,核心的数据分析逻辑并没有实质性的改变。因此,就目前而言,大数据分析的关键是计算机技术如何更新升级来适应这种变革,以便可以像从前一样满足统计分析的需要。

(三)应用维度

在商业应用领域,数据科学被定义为,将数据转化为有价值的商业信息①的完整过程。数据科学家要同时具备数据分析技术和商业敏感性等综合技能。换句话说,数据科学家不仅要了解数据的来源、类型和存储调用方式,而且还要知晓如何选择相应的分析方法,同时对分析结果也能做出切合实际的解释②。这实际上提出了两个层面的要求:①长期目标是数据科学家从一开始就应该熟悉整个数据分析流程,而不是数据库、统计学、机器学习、经济学、商业分析等片段化碎片化的知识。②短期目标实际上是一个“二级定义”,即,鼓励已经在专业领域内有所成就的统计学家、程序员、商业分析师相互学习。在提及数据科学的相关文献中,对应用领域有更多的倾向;数据科学与统计学、数学等其他学科的区别恰在于其更倾向于实际应用。甚至有观点认为,数据科学是为应对大数据现象而专门设定的一个“职业”。其中,商业敏感性是数据科学家区别于一般统计人员的基本素质。对数据的简单收集和报告不是数据科学的要义,数据科学强调对数据多角度的理解,以及如何就大数据提出相关的问题(很多重要的问题,我们非但不知道答案而且不知道问题何在以及如何发问)。同时数据科学家要有良好的表达能力,能将数据中所发现的事实清楚地表达给相关部门以便实现有效协作。从商业应用和服务社会的角度来看,强调应用这个维度无可厚非,因为此处是数据产生的土壤,符合数据科学数据导向的理念,数据分析的目的很大程度上也是为了增进商业理解,而且包括数据科学家、首席信息官这些提法也都肇始于实务部门。不过,早在20世纪90年代中期,已故图灵奖得主格雷(JimGray)就已经意识到,数据库技术的下一个“大数据”挑战将会来自科学领域而非商业领域(科学研究领域成为产生大数据的重要土壤)。2008年9月4日刊出的《自然》以“bigdata”作为专题(封面)探讨了环境科学、生物医药、互联网技术等领域所面临的大数据挑战。2011年2月11日,《科学》携其子刊《科学-信号传导》、《科学-转译医学》、《科学-职业》专门就日益增长的科学研究数据进行了广泛的讨论。格雷还进一步提出科学研究的“第四范式”是数据(数据密集型科学),不同于实验、理论、和计算这三种范式,在该范式下,需要“将计算用于数据,而非将数据用于计算”。这种观点实际上是将数据从计算科学中单独区别开来了。

三、数据科学范式对统计分析过程的直接影响

以前所谓的大规模数据都是封闭于一个机构内的(数据孤岛),而大数据注重的是数据集间的关联关系,也可以说大数据让孤立的数据形成了新的联系,是一种整体的、系统的观念。从这个层面来说,将大数据称为“大融合数据”或许更为恰当。事实上,孤立的大数据,其价值十分有限,大数据的革新恰在于它与传统数据的结合、线上和线下数据的结合,当放到更大的环境中所产生的“1+1>2”的价值。譬如消费行为记录与企业生产数据结合,移动通讯基站定位数据用于优化城市交通设计,微博和社交网络数据用于购物推荐,搜索数据用于流感预测、利用社交媒体数据监测食品价等等。特别是数据集之间建立的均衡关系,一方面无形中增强了对数据质量的监督和约束;另一方面,为过去难以统计的指标和变量提供了另辟蹊径的思路。从统计学的角度来看,数据科学(大数据)对统计分析过程的各个环节(数据收集、整理、分析、评价、等)都提出了挑战,其中,集中表现在数据收集和数据分析这两个方面。

(一)数据收集方面

在统计学被作为一个独立的学科分离出来之前(1900年前),统计学家们就已经开始处理大规模数据了,但是这个时期主要是全国范围的普查登记造册,至多是一些简单的汇总和比较。之后(1920-1960年)的焦点逐渐缩聚在小规模数据(样本),大部分经典的统计方法(统计推断)以及现代意义上的统计调查(抽样调查)正是在这个时期产生。随后的45年里,统计方法因广泛的应用而得到快速发展。变革再次来自于统计分析的初始环节———数据收集方式的转变:传统的统计调查方法通常是经过设计的、系统收集的,而大数据是零散实录的、有机的,这些数据通常是用户使用电子数码产品的副产品或用户自行产生的内容,比如社交媒体数据、搜索记录、网络日志等数据流等,而且数据随时都在增加(数据集是动态的)。与以往大规模数据不同的是,数据来源和类型更加丰富,数据库间的关联性也得到了前所未有的重视(大数据的组织形式是数据网络),问题也变得更加复杂。随着移动电话和网络的逐渐渗透,固定电话不再是识别住户的有效工具变量,相应的无回答率也在增加(移动电话的拒访率一般高于固定电话),同时统计调查的成本在增加,人口的流动性在增加,隐私意识以及法律对隐私的保护日益趋紧,涉及个人信息的数据从常规调查中越来越难以取得(从各国的经验来看,拒访率或无回答率的趋势是增加的),对时效性的要求也越来越高。因此,官方统计的数据来源已经无法局限于传统的统计调查,迫切需要整合部门行政记录数据、商业记录数据、个人行为记录数据等多渠道数据源,与部门和搜索引擎服务商展开更广泛的合作。

(二)数据分析方面

现代统计分析方法的核心是抽样推断(参数估计和假设检验),然而数据收集方式的改变直接淡化了样本的意义。比如基于浏览和偏好数据构建的推荐算法,诚然改进算法可以改善推荐效果,但是增加数据同样可以达到相同的目的,甚至效果更好。即所谓的“大量的数据胜于好的算法”这与统计学的关键定律(大数定律和中心极限定理)是一致的。同样,在大数据分析中,可以用数量来产生质量,而不再需要用样本来推断总体。事实上,在某些场合(比如社会网络数据),抽样本身是困难的。数据导向的、基于算法的数据分析方法成为计算机时代统计学发展无法回避的一个重要趋势。算法模型不仅对数据分布结构有更少的限制性假定,而且在计算效率上有很大的优势。特别是一些积极的开源软件的支撑,以及天生与计算机的相容性,使算法模型越来越受到学界的广泛重视。大数据分析首先涉及到存储、传输等大数据管理方面的问题。仅从数量上来看,信息爆炸、数据过剩、数据泛滥、数据坟墓、丰富的数据贫乏的知识……这些词组表达的主要是我们匮乏的、捉襟见肘的存储能力,同时,存储数据中有利用价值的部分却少之又少或尘封窖藏难以被发现。这除了对开采工具的渴求,当时的情绪主要还是迁怨于盲目的记录,把过多精力放在捕捉和存储外在信息。在这种情况下,开采有用的知识等价于抛弃无用的数据。然而,大数据时代的思路改变了,开始变本加厉巨细靡遗地记录一切可以记录的数据。因为:数据再怎么抛弃还是会越来越多。我们不能通过删减数据来适应自己的无能,为自己不愿做出改变找借口,而是应该面对现实,提高处理海量数据的能力。退一步,该删除哪些数据呢?当前无用的数据将来也无用吗?显然删除数据的成本要大于存储的成本。大数据存储目前广泛应用的是GFS、HDFS等基于计算机群组的文件系统,它可以通过简单增加计算机来无限地扩充存储能力。值得注意的是,分布式文件系统存储的数据仅仅是整个架构中最基础的描述,是为其他部件服务的(比如MapReduce),并不能直接用于统计分析。而NoSQL这类分布式存储系统可以实现高级查询语言,事实上,有些RDBMS开始借鉴MapReduce的一些思路,而基于MapReduce的高级查询语言也使MapReduce更接近传统的数据库编程,二者的差异将变得越来越模糊。大数据分析的可行性问题指的是,数据量可能大到已经超过了目前的存储能力,或者尽管没有大到无法存储,但是如果算法对内存和处理器要求很高,那么数据相对也就“大”了。换句话说,可行性问题主要是,数据量太大了,或者算法的复杂度太高。大数据分析的有效性问题指的是,尽管目前的硬件条件允许,但是耗时太久,无法在可容忍的或者说可以接受的时间范围内完成。目前对有效性的解决办法是采用并行处理。注意到,高性能计算和网格计算也是并行处理,但是对于大数据而言,由于很多节点需要访问大量数据,因此很多计算节点会因为网络带宽的限制而不得不空闲等待。而MapReduce会尽量在计算节点上存储数据,以实现数据的本地快速访问。因此,数据本地化是MapReduce的核心特征。

四、结论

(一)数据科学不能简单地理解为统计学的重命名,二者所指“数据”并非同一概念,前者更为宽泛,不仅包括结构型数据,而且还包括文本、图像、视频、音频、网络日志等非结构型和半结构型数据;同时,数量级也是后者难以企及的(PB以上)。但是数据科学的理论基础是统计学,数据科学可以看作是统计学在研究范围(对象)和分析方法上不断扩展的结果,特别是数据导向的、基于算法的数据分析方法越来越受到学界的广泛重视。

(二)从某种程度上来讲,大数据考验的并不是统计学的方法论,而是计算机科学技术和算法的适应性。譬如大数据的存储、管理以及分析架构,这些都是技术上的应对,核心的数据分析逻辑并没有实质性的改变。因此,大数据分析的关键是计算机技术如何更新升级以适应这种变革,以便可以像从前一样满足统计分析的需要。

(三)大数据问题很大程度上来自于商业领域,受商业利益驱动,因此数据科学还被普遍定义为,将数据转化为有价值的商业信息的完整过程。这种强调应用维度的观点无可厚非,因为此处是数据产生的土壤,符合数据科学数据导向的理念。不过,早在20世纪90年代中期,已故图灵奖得主格雷就已经意识到,数据库技术的下一个“大数据”挑战将会来自科学领域而非商业领域(科学研究领域成为产生大数据的重要土壤)。他提出科学研究的“第四范式”是数据,不同于实验、理论、和计算这三种范式,在该范式下,需要“将计算用于数据,而非将数据用于计算”。这种观点实际上将数据从计算科学中单独区别开了。

(四)数据科学范式对统计分析过程的各个环节都提出了挑战,集中表现在数据收集和数据分析这两个方面。数据收集不再是刻意的、经过设计的,而更多的是用户使用电子数码产品的副产品或用户自行产生的内容,这种改变的直接影响是淡化了样本的意义,同时增进了数据的客观性。事实上,在某些场合(比如社会网络数据),抽样本身是困难的。数据的存储和分析也不再一味地依赖于高性能计算机,而是转向由中低端设备构成的大规模群组并行处理,采用横向扩展的方式。

第8篇:统计学的参数范文

【关键词】经济类非统计专业 统计学教学

统计学是一门研究统计活动规律和方法的方法论科学。统计学是经济类各专业的主要课程或主干学科,几乎所有的专业都把统计学作为一门专业基础课来开设,以便为学生进行专业研究时提供一种可行的定量分析工具。而面对不同层次的教学对象,不同专业的教学需求,统计学课程教学过程面临诸多挑战。

一、教学中存在的一些困难与问题

统计学实际教学效果并不理想,不少学生认为统计学概念多,公式多,十分枯燥,比较难学,并且在实际中没什么用处。本文主要从一个教师的角度对目前经济类非统计专业的统计学教学存在的问题进行探讨。

(1)对于非统计专业的学生来说,他们本身的专业课学习负担已经不轻, 加上对统计知识的认识不够, 让他们腾出更多的时间来学习统计知识是很难做到的。 而且,由于其本专业的课程体系要求,学生本身的数学基础特别是概率论知识学得又不是很好,这就使得他们感到统计学知识难以理解,出现了统计难学的看法,最终导致一些学生彻底放弃。 这样,学生在认识不到统计知识用处的情况下, 所学又和实际结合不紧密。 容易产生学统计无用的想法,学习兴趣不高,以至于被迫学习,教学效果不佳。

(2)在实际教学中,由于各种条件所限,教学方式还局限在传统的教学手段上。随着计算机的普及, 有关数据处理的软件也越来越多,统计学的教学手段也应该日新月异。 多媒体教学使得教学信息量有所增加, 但是并没有改变传统的教师讲、学生听的教学方式,往往是一节课下来,教师讲的嗓子冒烟,学生听得直打瞌睡,究其原因还在于过于单一的教学手段, 使得学生不能直接参与到教学中去。

(3)教学定位不清楚。统计学教学分为统计学专业的统计学教学和非统计专业的统计学教学。对统计学专业的学生而言要求他们掌握一整套系统的统计学分析方法,以便将来专门进行有关数据的研究;而对绝大多数非统计专业的学生来说,学习统计学主要是为他们提供一种统计学的思想, 在信息社会,如何辨别信息的真伪,做出判断和决策,这都需要他们具备一些统计学的思想;其次是给他们提供一些实用的数据处理方法。 可是不少学校的非统计教学由于定位不清楚, 导致教学过程中还是充斥着大量的公式推导和概念阐述,如不少统计学教材上大篇幅介绍统计图表, 并对其进行比较, 可是对于如何利用计算机软件画出这些图表却没有阐述。 其结果是学生学完了统计学后只记得一些概念,而具体如何收集、整理、分析数据,并做出图表却一无所知, 结果是不少学生得出《统计学》难学也没什么用的结论。

二、教学方法与教学手段的更新

(1)合理地安排教学内容

经济类非统计专业统计学教学的主要目的是通过学习统计学使学生具备在随机性事物中寻找规律的能力,以及懂得如何在生活、学习、工作中运用统计学知识。 因此在教学内容的选择上也应该有所取舍。整个统计学的教学应该按照收集数据、整理数据和分析数据的步骤进行。其主要内容还是包括描述统计和推断统计两部分,而重点应加以调整,应以推断统计为主,描述统计为辅。 在描述统计部分,着重介绍搜集、整理、分析数据的方法。 在推断统计部分,不仅要介绍抽样推断、参数估计、假设检验、方差分析和回归分析,还应该介绍关于统计决策、多元统计分析和非参数统计等现代统计方法。 计算机的飞速发展给统计学的发展带来了前所未有的突破。 统计学常用的软件是 Excel 和 SPSS, 为了让学生更多了解统计学方法在实际中的应用,因此实践课程的加入是必须的。实践课程中介绍这些软件的使用方法, 使得统计学不在是高高在上的阳春白雪,成为可以随时接触的、使用的工具。

(2)采用多样化的教学手段

统计学能否引起学生的兴趣 ,教学手段多样化也是一个关键的因素。 因此,当务之急是改变当前单一的教学手段,使用多样化的教学手段。 首先,在教学过程中,将传统的“灌输式”教学转变为“启发式”教学。 充分调动学生的积极性,在课堂中应将讲授式教学法、启发式教学法和讨论式教学法相结合,相互取长补短,以达到更好的效果。其次,由于统计学内容的繁多与复杂,适当加入学生的环节可以增强学习的主动性。例如让学生用软件设计问卷, 对自己收集的数据进行简单的分析,写出分析报告。 最后,统计学是一门实践性、应用性很强的学科,应该加强教师和学生之间的互动和交流, 因此在教学中利用计算机辅助教学,加大实践教学的比重。 这样,既便于进行案例教学、小组讨论,也便于调动学生学习的积极性,使每个学生都能参与到教学中去,真正做到“教学相长”。

(3)部分内容采用实践教学和灵活的考核方式

单纯的笔试往往使学生认为考试为大, 别的都是次要的,重点在于考试前死记硬背,而对于是否掌握知识没有兴趣。实践教学一定比例的加入必然要求考核方式的多样化。 因此,单纯进行笔试考试改革势在必行。并且统计学中的一些内容,例如推断分析、方差分析和回归分析等不借助计算机很难在笔试中实现甚至没办法实现,导致的结果是重要内容没办法考,能考的内容有可能反而不重要。 因此,必须采用灵活多样的考核方式,尤其是以实践教学为主的考核方式势在必行。

三、结语

总之,在对经济类非统计专业的统计学教学中,教师应充分调动学生学习的积极性。 不仅需要教师在选择教学内容的时候要紧密联系实际, 还要求教师要全方位的展示统计学的魅力,增加实践课时,让学生充分理解统计无处不在、无处不用。 其次, 教学手段与方式的选择也起到事半功倍的作用。 统计软件的应用、统计案例的讲解,完全可以使统计学成为人人喜欢学习的一门数据处理的工具。

参考文献:

[1]王来栓.财经院校非统计专业统计学教学法探讨,内蒙古统计[J].2013(06).

[2]董瑞.]经管类专业统计学教学改革的背景与设想.河南科技学院学报[J].20 l1(06).

第9篇:统计学的参数范文

关键词:经济管理类专业 统计学教材 统计软件

一、引言

统计学作为一门搜集数据、整理数据、展示数据、分析数据的方法论学科,在当今社会的各个领域得到了越来越广泛的应用,在我国各高等院校也日益受到重视,几乎所有的经济、管理类专业都把统计学作为学科基础课来开设,使之成为本专业定量分析的工具。可是据我十多年的统计学教学实践和调查结果来看,目前统计学在高校的开课效果并不理想,多数学生反映统计学公式多、计算量大、内容枯燥,还有不少同学对统计学存在畏惧心理,统计学也成为目前高校不及格率最高的科目之一。造成目前这种状况的原因很多,但目前国内的统计学教材的“可读性”差,读起来“味同嚼蜡”应该是一个主要的原因。本文对当前经济、管理类专业的统计学教材存在的一些问题进行探讨。

二、目前统计学教材存在的主要问题

目前市面上国内编著的经济、管理类的统计学教材数量繁多,其名字也五花八门,如:《统计学原理》《统计学基础》《统计学》《经济统计学》《管理统计学》等。据我调查,目前武汉市书店在售的这类图书不下三十种。虽然数目众多,但翻开一看,就会发现这些书的内容大同小异,和国外的统计学教材相比,对学生的吸引力不强。经过综合,我认为国内的统计学教材主要存在以下问题。

(一)内容陈旧。

如今的经济、管理类统计学教材由以前的只介绍描述统计变成既有描述又有推断统计的大统计学。可是翻开现有的统计学教材,就会发现不少已经过时的描述统计学的概念比比皆是,学生平时在生活、学习中几乎用不上。如不少教材里的第一章绪论部分重点介绍“标志”和“指标”这对概念,花很大篇幅来介绍两者的联系和区别,但这对概念在后续的数据分析中几乎用不到;在“后续统计调查”这章中,对统计报表、重点调查和典型调查这些方法也是花了不少篇幅来介绍,而这些在计划经济条件下使用的调查方法现在很少采用;另外,目前不少教材保留了“指数”一章,详细介绍了编制指数的两种方法,而这些内容由于内容繁杂,应用面窄,除了专门的统计调查人员,一般人根本没有必要掌握,只需要了解其基本含义。由此可见,目前国内统计学教材内容陈旧,教材中对广大读者用处不大的资源占用了大量的篇幅,而一些实用性很强的内容,如参数估计、假设检验及多元回归则放在教材后面简单介绍,由于学时有限,很多老师在课堂上只是简单地提一下,其结果是学生用这样的教材根本学不到有用的知识。

(二)概念、公式多,案例少。

目前很多学生并不需要学量系统的统计学知识,而只需要能用简单、实用的统计学方法来辨别、处理出现的定量分析问题,并且能够利用统计学软件自己解决一部分,当自己不能解决时知道到哪里寻求帮助就行了。因此统计学教材的主要任务是教会他们统计学的主要思想,学会用统计分析方法解决实际问题。基于这种目的,统计学教材应偏重实际应用,多引入生活中常见的实例或案例,不知不觉地把读者引入统计学专业知识的殿堂。但是目前的统计学教材一般都是先介绍理论、概念,再给出公式及其推导过程,最后才结合实践进行举例,而且大量繁琐的数学推导占了很大的篇幅,而经济、管理类专业的学生大多数是文科生,数学底子差,大量的公式推导往往让他们望而却步。而与大量公式相对应,国内现有的经济、管理类的统计学教材有关经济、管理的统计案例很少,大部分是过于简单的设例,或是“编写”的案例,甚至是若干年以前在自然科学领域内应用的陈旧的案例,与现实的经济、管理工作严重脱节。国内统计学教材这种重理论学习和公式推导,轻结合实际案例的特点,使得本该妙趣横生的统计学在学生眼里课程变得晦涩难懂、枯燥乏味。

(三)实用性不强。

统计学作为一门实用性很强的方法论学科,是和计算机以及统计软件紧紧地联系在一起,任何统计学方法都可以在统计学软件上操作完成,目前常用的统计学软件有SAS、STATISTIC、MINITAB、SPSS和EXCEL,对于经济管理专业的学生来说,SPSS和EXCEL都是操作起来相当简单方便的统计学软件。目前国内的统计学教材只是介绍统计学原理和方法,而如何应用统计软件来解决具体问题则没有系统的介绍,如Excel制作图、表的功能很强大,展示数据常用的直方图、条形图、饼图、环形图利用Excel都可以做得很漂亮,可是不少教材只是介绍什么是直方图和条形图,两者有何区别,而具体如何利用软件作图则只字未提;时间数列分析、多元回归分析等内容涉及的数据都很多,不借助统计软件根本没法完成,因此很多教材也只是介绍概念和方法,老师在课上也只简单介绍方法,不给学生讲授如何应用统计软件来解决具体问题,这使得学生学完这门课后实际分析问题的能力没有得到锻炼,学生在学习后续课程或撰写毕业论文时,抱怨统计学只是学了很多不会用,也不知怎么用的概念和公式。

三、对策分析

统计学教材的质量普遍不高,反映了当前我国定量分析问题的能力还有待提高。要解决这一问题,我觉得重点应从以下几方面着手。

(一)加大对从事统计学教学的教师的培训力度。

统计学教材是统计学教师教学实践的结晶。目前国内统计学教材质量不高的根本原因在于从事统计学教学教师的统计学能力有所欠缺。从事经济、管理类统计学教学的教师不仅要熟练地掌握统计学方法和统计软件的使用技巧,还要对经济、管理有一定的了解,并了解统计学在经济、管理中的使用。可是据我对武汉市高校的调查统计,不少学校从事经济、管理统计学教学的教师都是学习经济、管理的,他们对统计学方法和统计软件的使用并不熟悉,因此编出来的教材其质量也是可想而知。虽然一部分老师是统计学专业毕业的,但绝大多数是学经济统计的,对推断统计和统计软件的使用并不精通。另外还有一小部分老师是学数理统计专业的,他们对统计学方法进行过系统的学习,可是由于对于经济、管理了解甚少,因此没法和经济、管理的实际案例相结合,而只是像讲数学一样,着重公式的推导。因此要改变这种状况,各校首先要加大对统计学重要性的认识,其次要拿出切实可行的方案来对从事统计学教学的教师进行全方位的培训,使得他们具备从事统计学教学的专业水平,这样才有可能从根本上改变统计学教材吸引不了学生的现状。

(二)借鉴国外优秀统计学教材的经验。

和国内经济、管理类统计学教材内容陈旧、案例匮乏、实用性不强和趣味性差的现状相比,国外的统计学教材则让人眼前一亮。国外教材非常注重实际应用,每一部分都引入大量的生活中常见的实例或案例,不知不觉地把读者引入统计专业知识的殿堂。这些教材几乎都摒弃了繁琐的数学推导,大部分只介绍基本公式,少数则采用纯文字描述的形式来介绍统计学,让没有统计学基础的学生也能轻松地学习统计学而且它们都非常详细地介绍了如何利用统计软件来进行操作,并贯穿在各章,课后也有大量配套的习题让读者自己去练习,以加深对统计学方法的理解。因此要提高目前国内统计学教材的质量,多多向国外同行学习是非常必要的,不少学校的老师直接以国外的教材作为学生的学习教材。但是完全采用国外的教材也有不少问题,如直接采用国外原版教材,对多数学生来说英文水平有待提高,而如果采用翻译过来的教材,由于目前不少教材翻译质量不高,学生读起来感觉很生涩;另外国外的教材结合的都是本国的例子,和我国的具体国情不符,学生听起来觉得陌生。因此最好的方法是借鉴国外统计学教材好的体系和编排方法,同时结合本国的具体实践,编制适合我国国庆的教材,这就需要付出更多的努力。

(三)合理安排统计学教材的章节设置。

如今,国内经管类专业“统计学”教材通常包括绪论、统计调查、统计整理、数据的概括性描述、时间数列、抽样分布与参数估计、相关分析与回归分析、统计指数等八个部分。前面谈到过有些章节的内容陈旧,因此有必要对各章节设置进行调整。借鉴国外统计学教材的经验,应删除描述统计的大部分内容部分,重点介绍推断统计,即在有限的篇幅内重点介绍统计学的精华部分。具体来说,经济、管理类统计学教材应包括以下几部分:数据收集、数据的图表展示、数据的概括性度量、时间数列、参数估计和假设检验、方差分析和相关与回归。另外对章节的内容也要进行调整,多介绍实用性、强的内容,最后应加强统计软件的介绍,着重可以Excel或SPSS为工具来进行实例分析。