Luke Plonsky (Northern Arizona University) は,応用言語学系の国際ジャーナル 掲載論文のメタ分析を行ったり,論文中で使われている統計的手法について,過去の論文の傾向を探り,報告をどのように改善すべきかなどを提案しています。いくつかの論文の基となっている,Michigan State University の Dissertation [pdf] も公開されています。
その Plonsky が,以下の本の中で,”Replication, meta-analysis, and generalizability”という章を書いており,p. 127 には,”Proposed instrument for assessing reports of L2 meta-analyses” という,「メタ分析評価のチェックリスト」が提案されています。
Plonsky, L. (2012). Replication, meta-analysis, and generalizability. In G. Porte (Ed.), Replication research in applied linguistics (pp. 116-132). Cambridge: Cambridge University Press.
このチェックリストは,これまでの研究で使用されているテストや質問紙,その他の測定道具をリポジトリの形(もちろん無料)で公開している,IRIS (A digital repository of data collection instruments for research into second language learning and teaching) でもダウンロード可能です。
IRIS(http://t.co/62nQbTAgHc)では,EFL や ESL の研究(論文)で使われているテストや質問紙をレポジトリとして公開しています。日本国内でも日本語のものはデータベース化してくれる学会や研究科があれば,もっと追試への意識が高まると思うのですが。
— 水本 篤 (@MizumotoAtsushi) 2014, 1月 20
IRIS で公開されている測定道具は,クリエイティブ・コモンズの中でも,引用元を明記しリンクを提供すれば,ほとんどのものがすべて複製・配布・改変することが可能なライセンス(Attribution-NonCommercial-ShareAlike)になっていますので,以下でも “Proposed instrument for assessing reports of L2 meta-analyses” を紹介しておきます。
Proposed instrument for assessing reports of L2 meta-analyses
0 = No; 1 = Somewhat; 2 = Yes.
Introduction/Literature review
- Does the review address a focused and clearly defined question?
- Are all (potential) moderator variables identified a priori and explained sufficiently?
- Is the relevance of the study, both theoretical and practical, presented?
- Are potential biases of primary and secondary researchers recognized?
- Are the different study designs explained with respect to their potential strengths and weaknesses?
- Are the different types of data collection instruments used in primary research explained?
Methods
- Was the search for relevant primary research reasonably exhaustive?
- Are the inclusion/exclusion criteria sufficiently explicit and unambiguous?
- Was the presence of publication bias assessed?
- Was interrater reliability for coding measured and adequate?
- Was the quality of primary studies assessed?
- Were effect sizes from the same sample/study dealt with appropriately?
- Were effect sizes weighted appropriately?
- Were missing data dealt with appropriately?
- Were outliers dealt with appropriately?
- Are all items on the coding sheet justified and available for inspection?
Results/Discussion
- Are the main (i.e., summary) findings presented?
- Does the review add new knowledge about the constructs of interest?
- Are the results interpreted and contextualized appropriately?
- Are the findings discussed in relation to the particular theory or model(s) being tested?
- Are practical implications discussed?
- Are the findings used to provide substantive and methodological suggestions for future research?
ちなみにですが,Mizumoto & Takeuchi (2009) で使用した質問紙も,IRIS で公開しています。
IRISは追試(replication)や再現性ということを考えると,非常に素晴しい試みで,応用言語学の分野でもっと広がることを期待していますが,心理学では,さらに進んだ取り組みとして,データすべての公開までを求めているジャーナルもあり,最終的には,測定道具のみならず,ローデータの公開までするという方向に向かっていくのかもしれないと思っています。(分析の再現性といえば,R がいいですよね。)
印南先生情報。APAの新ジャーナル。Open Methods, Open Data, Open Accessで,著者に full data を post することを義務づけています。replication や検証がしやすくなりますね。 http://t.co/YpmqKhav
— 水本 篤 (@MizumotoAtsushi) 2012, 11月 12
心理学におけるData sharingの意義。 http://t.co/GhxeTijBAN データをシェアする研究者のデータの方が、厳格であると。この記事の著者らがJournal of Open Psychology Dataを立ち上げてますが、まだ論文は少なく。
— Yusuke Moriguchi (@moriguchiy) 2014, 2月 4
PLOSが新たなデータ公開方針へ 論文に関わる全てのデータの公開を要求 | カレントアウェアネス・ポータル http://t.co/st65TJtIko
— 水本 篤 (@MizumotoAtsushi) 2014, 2月 26
“Open Science Framework (OSF)” https://t.co/qdr6tRcr3v http://t.co/xeWHgE7ENT meterialを置いておいたり,ワークフローを作ったり,その他,研究の再現をしやすくする試み。なかなかおもしろいと思う。
— 水本 篤 (@MizumotoAtsushi) 2014, 2月 19