Kitle Kaynaklı Araştırma [Crowdsourced Research]
Tanım: Kitle kaynaklı araştırma, araştırmanın sosyal örgütlenmesine dair bir modeldir. Bu modelde bir veya birden fazla araştırma projesi, birden çok ekip tarafından bağımsız fakat koordine biçimde yürütülür. Kitle kaynaklı araştırmalar, kaynakların bir araya getirilmesi, şeffaflığın ve sosyal katılımın teşvik edilmesi yoluyla verimlilik ve ölçeklenebilirlik kazanımları elde etmeyi hedefler. Aynı zamanda, istatistiksel gücü artırarak ve karşılıklı sosyal denetimi teşvik ederek araştırmanın titizliğini, güvenilirliğini ve itibarını yükseltmeyi amaçlar. Bu yaklaşım, ağırlıklı olarak bireysel araştırmacılar ya da küçük gruplar tarafından yürütülen geleneksel akademik araştırma üretim modeline (yani ‘küçük bilim’e) tezat oluşturmaktadır. Kitle kaynaklı araştırmalara örnek olarak: ‘‘Çoklu lavoratuvarlı replikasyon’’ (Many labs replication) çalışmaları (Klein vd., 2018), “Bir veri seti, birçok analist” (Many analysts, one dataset) çalışmaları (Silberzahn vd., 2018), ‘‘Dağılımlı işbirliği ağları’’ (distributive collaborative networks) (Moshontz vd., 2018), Kitlesel açık çevrim içi makaleler (Massively Open Online Papers; MOOPs) gibi açık ortaklaşa yazma projeleri (Himmelstein vd., 2019; Tennant vd., 2019) verilebilir. Alternatif olarak, kitle kaynaklı araştırma terimi, veri toplama süreçlerinde Amazon Mechanical Turk veya Prolific gibi çevrimiçi işgücü platformları aracılığıyla işe alınan çok sayıda araştırma katılımcısını (crowdworker) ifade etmek için de kullanılabilir. Bu tür kullanım örneklerine içerik analizi (Benoit vd., 2016; Lind vd., 2017) ya da deneysel araştırmalarda (Peer vd., 2017) rastlanabilir. Katılıma açık olan ve aynı zamanda ara çıktıları da açık şekilde paylaşılan kitle kaynaklı araştırmalar, kitle bilimi (crowd science) olarak da adlandırılır (Franzoni ve Sauermann, 2014).
İlgili terimler: Citizen science, Collaboration, Crowdsourcing, Team science
Kaynakça:
- Benoit, K., Conway, D., Lauderdale, B. E., Laver, M., & Mikhaylov, S. (2016). Crowd-sourced text analysis: Reproducible and agile production of political data. American Political Science Review, 110(2), 278–295. https://doi.org/10.1017/S0003055416000058
- Breznau, N. (2021). I saw you in the crowd: Credibility, reproducibility, and meta-utility. PS: Political Science & Politics, 54(2), 309–313. https://doi.org/10.1017/S1049096520000980
- Franzoni, C., & Sauermann, H. (2014). Crowd science: The organization of scientific research in open collaborative projects. Research Policy, 43(1), 1–20. https://doi.org/10.1016/j.respol.2013.07.005
- Himmelstein, D. S., Rubinetti, V., Slochower, D. R., Hu, D., Malladi, V. S., Greene, C. S., & Gitter, A. (2019). Open collaborative writing with Manubot. PLOS Computational Biology, 15(6), e1007128. https://doi.org/10.1371/journal.pcbi.1007128
- Klein, R. A., Vianello, M., Hasselman, F., Adams, B. G., Adams, R. B., Alper, S., & … Nosek, B. A. (2018). Many Labs 2: Investigating Variation in Replicability Across Samples and Settings. Advances in Methods and Practices in Psychological Science, 1(4), 443–490. https://doi.org/10.1177/2515245918810225
- Lind, F., Gruber, M., & Boomgaarden, H. G. (2017). Content analysis by the crowd: Assessing the usability of crowdsourcing for coding latent constructs. Communication Methods and Measures, 11(3), 191–209. https://doi.org/10.1080/19312458.2017.1317338
- Moshontz, H., Campbell, L., Ebersole, C. R., IJzerman, H., Urry, H. L., Forscher, P. S., & Chartier, C. R. (2018). The Psychological Science Accelerator: Advancing psychology through a distributed collaborative network. Advances in Methods and Practices in Psychological Science, 1(4), 501–515. https://doi.org/10.1177/2515245918797607
- Peer, E., Brandimarte, L., Samat, S., & Acquisti, A. (2017). Beyond the Turk: Alternative platforms for crowdsourcing behavioral research. Journal of Experimental Social Psychology, 70, 153–163. https://doi.org/10.1016/j.jesp.2017.01.006
- Silberzahn, R., Uhlmann, E. L., Martin, D. P., Anselmi, P., Aust, F., Awtrey, E., Bahník, Š., Bai, F., Bannard, C., Bonnier, E., & others. (2018). Many Analysts, One Data Set: Making Transparent How Variations in Analytic Choices Affect Results. Advances in Methods and Practices in Psychological Science, 337–356. https://doi.org/10.1177/2515245917747646
- Stewart, N., Chandler, J., & Paolacci, G. (2017). Crowdsourcing samples in cognitive science. Trends in Cognitive Sciences, 21(10), 736–748. https://doi.org/10.1016/j.tics.2017.06.007
- Tennant, J., Bielczyk, N. Z., Cheplygina, V., Greshake Tzovaras, B., Hartgerink, C. H. J., Havemann, J., Masuzzo, P., & Steiner, T. (2019). Ten simple rules for researchers collaborating on Massively Open Online Papers (MOOPs). MetaArXiv. https://doi.org/10.31222/osf.io/et8ak
- Uhlmann, E. L., Ebersole, C. R., Chartier, C. R., Errington, T. M., Kidwell, M. C., Lai, C. K., McCarthy, R. J., Riegelman, A., Silberzahn, R., & Nosek, B. A. (2019). Scientific utopia III: Crowdsourcing science. Perspectives on Psychological Science, 14(5), 711–733. https://doi.org/10.1177/1745691619850561
- Week, C. (2021). What is Crowdsourcing? https://crowdsourcingweek.com/what-is-crowdsourcing/
Hazırlayanlar ve Denetleyenler: Eike Mark Rinke, Ali H. Al-Hoorie, Sam Parsons, Charlotte R. Pennington, Suzanne L. K. Stewart, Flávio Azevedo