首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 218 毫秒
1.
二级考试是一种社会化考试,其话题语篇、设题模式及答案分布均有一定的稳定性。研究这些稳定性,有利于提高备考的针对性。部分省份的高考英语听力试题采用的就是二级考试的听力部分,简称PETS 2听力。结合近年的考试题,分析PETS 2听力试题的特点。  相似文献   

2.
黄德凯  黎斌  丘兆云 《广西教育》2023,(21):19-22+32
本文阐述PETS(全国英语等级考试)向职业院校拓展的必要性、可行性,分析PETS向职业院校拓展的影响因素,提出广西将PETS融入职业教育的策略:结合广西区情,加强政策扶持;增强服务意识,提高服务水平;提高PETS考试通过率,加强考生参与信心。  相似文献   

3.
刘庆思 《中国考试》2006,(12):21-24
1996年PETS项目启动时期考虑进行题库建设,起初,考试中心直接引入了UCLES为其EFL开发的题库对PETS试题进行、管理。1999年,考试中心开始着手开发自己的PETS题库并于2001年投入使用。该题库应对其他考试项目的题库建设工作有借鉴意义。  相似文献   

4.
苏勇  李斌 《现代教育》2005,(4):59-60
全国英语等级考试(PETS)是教育部考试中心负责设计并实施的全国性英语水平考试体系。PETS口语考试结合了结构主义口试和交际性口试的特点,考察学生使用语言的准确性、恰当性、熟练性、有效性、得体性等。无论从试题的设计,还是口试的程序操作都体现了“以人为本”的新教育理念,  相似文献   

5.
PETS 1是全国英语等级考试(PETS)中的初始级,其标准略高于我国九年义务教育全日制初级中学毕业时的英语水平,许多中等职业学校的在校生都要求达到PETS 1(一级)的水平。本文从PETS 1考试的形式、内容及结构入手,根据中职学生的特点,在考试技巧、答题时间、词汇要求等方面给考生一定的指导,从而使学生顺利地通过PETS 1考试。  相似文献   

6.
刘小林 《考试周刊》2009,(42):11-12
全国公共英语等级考试(PETS)阅读理解部分题型新颖,题材广泛,题材多样。这一部分分值所占比重较大,采取何种阅读策略和技巧是取得高分的关键因素。本文以2009年5月PETS五级真题为例,简要阐述了应对这种题型的方法和技巧。  相似文献   

7.
PETS是PublicEnglishTestSystem的缩写 ,是全国英语等级考试系统。它是中、英两国政府的教育合作项目 ,经原国家教委批准 ,由教育部考试中心主办 ,测试应试者的英语听、说、读、写综合能力等级水平的考试体系。贵州省高等教育自学考试办公室已向教育部考试中心申请 ,获得了在贵州推行PETS考试项目的承办权 ,明年三月正式在全省推行PETS考试项目。虽然PETS考试项目在贵州还是一个即将面世的婴儿 ,但基于它的科学性、开放性和实用性 ,得到了各级领导的高度重视 ,由专业的考试部门操作实施 ,可以预见它必将很快迎来大发展的春天。首先 …  相似文献   

8.
本文以PETS考试要求为出发点,结合考试中出现的各种问题,就如何备战PETS口试环节提出了一些对策.  相似文献   

9.
分析了目前PETS考试信息采集方式的弊端,对提高PETS考试报名信息录入速度和准确性的可行性进行了分析,并给出了克服弊端的方法。  相似文献   

10.
PETS口试是一种进行有效英语交际能力的考试,它是PETS合格的另一部分。作为一名PETS口语考官,我感到责任的重大。每次考试,我都要求自己像个严厉的法官一样,正确把握评分标准,以公平、公正、保密的态度去面对每位考生,时刻把PETS做得有信度,有效度,为学生以后的英语学习服务。  相似文献   

11.
PETS口试属于直接性口试,施考和评分同时进行,其效度和信度会受到多种因素的影响。本文从PETS口试考官的角度,结合英语测试理论与实践,阐述PETS口试在施考中存在的影响效度和信度的各种问题,并提出改进建议。  相似文献   

12.
PETS口试一直是困扰高职生的问题,往往使这类考生感到茫然无助。本文介绍了PETS口试的形式、程序与技能要求,分析了职校考生在口试过程中存在的问题,提出了职校英语教学应与PETS口试相结合,根据实际情况提高学生英语口语交际能力的对策,使考生都能顺利在PETS口试上过关。  相似文献   

13.
全国公共英语等级考试包括笔试和口试两大部分,分为五级。PETS-3口语测试评分方法既有优点,也存在不足之处。该口试评分方法对测试的信度产生了一定影响。评分的信度取决于评分标准、评分依据以及评分人三方面的共同作用.最终确保评分信度的真实、可靠。  相似文献   

14.
为了向PETS考生提供更为优质的服务,研究人员根据考生的实际需要,设计了PETS考生笔试成绩报告单。该文介绍了报告单设计所遵循的基本原则和报告单所呈现的主要内容。  相似文献   

15.
试论公共英语口语测试(PETS)的有效性   总被引:3,自引:0,他引:3  
公共英语测试是目前国内流行的英语水平测试之一,为人们广泛认可和接受。作为公共英语测试的一部分,口语测试的有效性是人们普遍关注的一个问题。应从提高构卷效度、强化规范性原则、坚持总体评分标准诸方面增强测试的有效性。  相似文献   

16.
PETS是一种标准化英语考试,其口试有其独特的形式和特点。PETS的口试注重语言交际能力的考查,PETS口试的评分标准也以考查实际能力为核心。本文的主要目的是从现代交际测试理论反观PETS口试的信度和效度,也谈一谈口试中出现失误的原因及应试策略。  相似文献   

17.
从PETS看我国高职院校的英语口语测试   总被引:1,自引:0,他引:1  
文章通过分析PETS口试形式、评分方法以及当前我国高职院校口语测试的基本情况,从设计有效的口试题型、制定科学的评分方法、建立口语试题库、培养高素质的考官和评分员队伍以及开发和利用多媒体技术几方面对高职院校的口试测试体系进行思考.  相似文献   

18.
When a computerized adaptive testing (CAT) version of a test co-exists with its paper-and-pencil (P&P) version, it is important for scores from the CAT version to be comparable to scores from its P&P version. The CAT version may require multiple item pools for test security reasons, and CAT scores based on alternate pools also need to be comparable to each other. In this paper, we review research literature on CAT comparability issues and synthesize issues specific to these two settings. A framework of criteria for evaluating comparability was developed that contains the following three categories of criteria: validity criterion, psychometric property/reliability criterion, and statistical assumption/test administration condition criterion. Methods for evaluating comparability under these criteria as well as various algorithms for improving comparability are described and discussed. Focusing on the psychometric property/reliability criterion, an example using an item pool of ACT Assessment Mathematics items is provided to demonstrate a process for developing comparable CAT versions and for evaluating comparability. This example illustrates how simulations can be used to improve comparability at the early stages of the development of a CAT. The effects of different specifications of practical constraints, such as content balancing and item exposure rate control, and the effects of using alternate item pools are examined. One interesting finding from this study is that a large part of incomparability may be due to the change from number-correct score-based scoring to IRT ability estimation-based scoring. In addition, changes in components of a CAT, such as exposure rate control, content balancing, test length, and item pool size were found to result in different levels of comparability in test scores.  相似文献   

19.
This paper reviews the role of the item in test construction and suggests some new methods of item analysis. A look at dynamic, graphical item analysis is provided that utilizes the advantages of modern high speed, highly interactive computing. Several illustrations are provided  相似文献   

20.
《教育实用测度》2013,26(2):125-141
Item parameter instability can threaten the validity of inferences about changes in student achievement when using Item Response Theory- (IRT) based test scores obtained on different occasions. This article illustrates a model-testing approach for evaluating the stability of IRT item parameter estimates in a pretest-posttest design. Stability of item parameter estimates was assessed for a random sample of pretest and posttest responses to a 19-item math test. Using MULTILOG (Thissen, 1986), IRT models were estimated in which item parameter estimates were constrained to be equal across samples (reflecting stability) and item parameter estimates were free to vary across samples (reflecting instability). These competing models were then compared statistically in order to test the invariance assumption. The results indicated a moderately high degree of stability in the item parameter estimates for a group of children assessed on two different occasions.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号