Khác biệt giữa bản sửa đổi của “Impact factor”

Bách khoa toàn thư mở Wikipedia
Nội dung được xóa Nội dung được thêm vào
Trang mới: “{{subst:đang dịch}} {{about|thước đo sự ảnh hưởng của journal|các thước đo khác tương tự|Citation impact}} '''Impact factor''' ('''IF'''…”
(Không có sự khác biệt)

Phiên bản lúc 12:03, ngày 19 tháng 4 năm 2017

Impact factor (IF) hay Journal impact factor (JIF) của một tạp chí khoa học (academic journal) là một thước đo phản ánh số lượng trích dẫn (citation) trung bình theo năm của các bài báo khoa học (article) được xuất bản gần đây trên tạp chí đó. IF thường được dùng với tư cách là proxy (thống kê học) đại diện cho độ quan trọng tương đối của một journal so với các journal khác trong cùng lĩnh vực nghiên cứu chuyên ngành; các journal có IF cao thường được coi là quan trọng hơn các journal có IF thấp. IF do Eugene Garfield, người sáng lập của Institute for Scientific Information (Viện Thông tin Khoa học), nghĩ ra. Bắt đầu từ năm 1975, các journal nằm trong danh sách Journal Citation Reports (Báo cáo Trích dẫn Journal) đều được tính IF theo từng năm.

Cách tính

Impact factor của một journal vào một năm bất kì là số lượng trích dẫn mà các bài báo được xuất bản trong vòng hai năm trước đó ở trên tạp chí đó nhận được, chia cho tổng số bài báo được xuất bản trong hai năm trước đó ở trên tạp chí đó:[1]

Ví dụ, journal Nature có điểm số tác động là 41.456 trong năm 2014:[2]

Điều này có nghĩa là, trung bình mỗi bài báo xuất bản vào năm 2012 và 2013 tính tới năm 2014 đã nhận được 41 trích dẫn. Chú ý, IF cho năm 2014 thực ra được xuất bản vào năm 2015; IF không được tính cho tới khi tất cả các bài báo xuất bản năm 2014 được xử lý bởi cơ quan lập danh mục (indexing agency).

Các journal mới, nếu đã được liệt kê vào danh mục ngay từ số xuất bản đầu tiên, sẽ nhận được IF sau hai năm ở trong danh mục. Trong trường hợp này, số trích dẫn và số bài báo xuất bản của năm trước Volume 1 sẽ bằng 0. Các journal được liệt vào danh mục không phải từ số đầu tiên sẽ không nhận được IF cho đến khi chúng nằm trong danh mục trong ba năm. Đôi khi Journal Citation Reports gán một impact factor cho các journal mới có ít hơn hai năm được liệt vào danh mục dựa trên dữ liệu trích dẫn một phần (partial citation data).[3][4] Việc tính toán luôn luôn sử dụng số liệu đếm được trong hai năm trọn vẹn đã biết, nhưng đối với các tiêu đề journal mới thì một trong các số liệu sẽ là 0. Các ấn bản thường niên hoặc bất thường thỉnh thoảng không xuất bản bát cứ ấn phẩm nào vào một năm đặc biệt nào đó, điều này ảnh hưởng đến số liệu đếm. IF có liên hệ với một khoảng thời gian cụ thể. IF có thể được tính cho một khoảng thời gian bất kì. Journal Citation Reports (JCR) cũng công bố chỉ số IF 5 năm.[5] JCR xếp hạng các journal theo IF từng chuyên ngành như chuyên ngành hóa hữu cơ hay psychiatry.

Ứng dụng

The impact factor is used to compare different journals within a certain field. The Web of Science indexes more than 11,000 science and social science journals.[6][7]

It is possible to examine the impact factor of the journals in which a particular person has published articles. This use is widespread, but controversial. Garfield warns about the "misuse in evaluating individuals" because there is "a wide variation from article to article within a single journal".[8] Impact factors have a large, but controversial, influence on the way published scientific research is perceived and evaluated.

Some companies are producing false impact factors.[9]

Chỉ trích

Numerous criticisms have been made regarding the use of impact factors.[10][11][12] For one thing, the impact factor might not be consistently reproduced in an independent audit.[13] There is also a more general debate on the validity of the impact factor as a measure of journal importance and the effect of policies that editors may adopt to boost their impact factor (perhaps to the detriment of readers and writers). Other criticism focuses on the effect of the impact factor on behavior of scholars, editors and other stakeholders.[14][15] Others have criticized the impact factor more generally on the institutional background of the neoliberal academia, claiming that what is needed is not just its replacement with more sophisticated metrics but a democratic discussion on the social value of research assessment and the growing precariousness of scientific careers.[16][17][18]

Tính hợp lệ của chỉ số độ quan trọng

It has been stated that impact factors and citation analysis in general are affected by field-dependent factors[19] which may invalidate comparisons not only across disciplines but even within different fields of research of one discipline.[20] The percentage of total citations occurring in the first two years after publication also varies highly among disciplines from 1–3% in the mathematical and physical sciences to 5–8% in the biological sciences.[21] Thus impact factors cannot be used to compare journals across disciplines.

Because citation counts have highly skewed distributions,[22] the mean number of citations is potentially misleading if used to gauge the typical impact of articles in the journal rather than the overall impact of the journal itself.[23] For example, about 90% of Nature's 2004 impact factor was based on only a quarter of its publications, and thus the actual number of citations for a single article in the journal is in most cases much lower than the mean number of citations across articles.[24] Furthermore, the strength of the relationship between impact factors of journals and the citation rates of the papers therein has been steadily decreasing since articles began to be available digitally.[25]

Indeed, impact factors are sometimes used to evaluate not only the journals but the papers therein, thereby devaluing papers in certain subjects.[26] The Higher Education Funding Council for England was urged by the House of Commons Science and Technology Select Committee to remind Research Assessment Exercise panels that they are obliged to assess the quality of the content of individual articles, not the reputation of the journal in which they are published.[27] The effect of outliers can be seen in the case of the article "A short history of SHELX", which included this sentence: "This paper could serve as a general literature citation when one or more of the open-source SHELX programs (and the Bruker AXS version SHELXTL) are employed in the course of a crystal-structure determination". This article received more than 6,600 citations. As a consequence, the impact factor of the journal Acta Crystallographica Section A rose from 2.051 in 2008 to 49.926 in 2009, more than Nature (at 31.434) and Science (at 28.103).[28] The second-most cited article in Acta Crystallographica Section A in 2008 only had 28 citations.[29] It is also important to note that impact factor is a journal metric and should not be used to assess individual researchers or institutions.[30][31]

Journal rankings constructed based solely on impact factors only moderately correlate with those compiled from the results of expert surveys.[32]

A.E. Cawkell, sometime Director of Research at the Institute for Scientific Information remarked that the Science Citation Index (SCI), on which the impact factor is based, ″would work perfectly if every author meticulously cited only the earlier work related to his theme; if it covered every scientific journal published anywhere in the world; and if it were free from economic constraints.″[33]

Các chính sách biên tập ảnh hưởng tới impact factor

A journal can adopt editorial policies to increase its impact factor.[34][35] For example, journals may publish a larger percentage of review articles which generally are cited more than research reports.[36] Thus review articles can raise the impact factor of the journal and review journals will therefore often have the highest impact factors in their respective fields.[15] Some journal editors set their submissions policy to "by invitation only" to invite exclusively senior scientists to publish "citable" papers to increase the journal impact factor.[15]

Journals may also attempt to limit the number of "citable items"—i.e., the denominator of the impact factor equation—either by declining to publish articles that are unlikely to be cited (such as case reports in medical journals) or by altering articles (e.g., by not allowing an abstract or bibliography in hopes that Journal Citation Reports will not deem it a "citable item"). As a result of negotiations over whether items are "citable", impact factor variations of more than 300% have been observed.[37] Items considered to be uncitable—and thus are not incorporated in impact factor calculations—can, if cited, still enter into the numerator part of the equation despite the ease with which such citations could be excluded. This effect is hard to evaluate, for the distinction between editorial comment and short original articles is not always obvious. For example, letters to the editor may refer to either class.

Another less insidious tactic journals employ is to publish a large portion of its papers, or at least the papers expected to be highly cited, early in the calendar year. This gives those papers more time to gather citations. Several methods, not necessarily with nefarious intent, exist for a journal to cite articles in the same journal which will increase the journal's impact factor.[38][39]

Beyond editorial policies that may skew the impact factor, journals can take overt steps to game the system. For example, in 2007, the specialist journal Folia Phoniatrica et Logopaedica, with an impact factor of 0.66, published an editorial that cited all its articles from 2005 to 2006 in a protest against the "absurd scientific situation in some countries" related to use of the impact factor.[40] The large number of citations meant that the impact factor for that journal increased to 1.44. As a result of the increase, the journal was not included in the 2008 and 2009 Journal Citation Reports.[41]

Coercive citation is a practice in which an editor forces an author to add extraneous citations to an article before the journal will agree to publish it, in order to inflate the journal's impact factor. A survey published in 2012 indicates that coercive citation has been experienced by one in five researchers working in economics, sociology, psychology, and multiple business disciplines, and it is more common in business and in journals with a lower impact factor.[42] However, cases of coercive citation have occasionally been reported for other scientific disciplines.[43]

Phản hồi

Because "the impact factor is not always a reliable instrument", in November 2007 the European Association of Science Editors (EASE) issued an official statement recommending "that journal impact factors are used only—and cautiously—for measuring and comparing the influence of entire journals, but not for the assessment of single papers, and certainly not for the assessment of researchers or research programmes".[11]

In July 2008, the International Council for Science (ICSU) Committee on Freedom and Responsibility in the Conduct of Science (CFRS) issued a "statement on publication practices and indices and the role of peer review in research assessment", suggesting many possible solutions—e.g., considering a limit number of publications per year to be taken into consideration for each scientist, or even penalising scientists for an excessive number of publications per year—e.g., more than 20.[44]

In February 2010, the Deutsche Forschungsgemeinschaft (German Research Foundation) published new guidelines to evaluate only articles and no bibliometric information on candidates to be evaluated in all decisions concerning "performance-based funding allocations, postdoctoral qualifications, appointments, or reviewing funding proposals, [where] increasing importance has been given to numerical indicators such as the h-index and the impact factor".[45] This decision follows similar ones of the National Science Foundation (US) and the Research Assessment Exercise (UK).[cần dẫn nguồn]

In response to growing concerns over the inappropriate use of journal impact factors in evaluating scientific outputs and scientists themselves, the American Society for Cell Biology together with a group of editors and publishers of scholarly journals created the San Francisco Declaration on Research Assessment (DORA). Released in May 2013, DORA has garnered support from thousands of individuals and hundreds of institutions,[46] including in March 2015 the League of European Research Universities (a consortium of 21 of the most renowned research universities in Europe),[47] who have endorsed the document on the DORA website.

Université de Montréal, Imperial College London, PLOS, eLife, EMBO Journal, The Royal Society, Nature (journal) and Science (journal) proposed citation distributions metrics as alternative to impact factors.[48][49][50]

Các chỉ số liên quan mật thiết

Some related values, also calculated and published by the same organization, include:

  • Cited half-life: the median age of the articles that were cited in Journal Citation Reports each year. For example, if a journal's half-life in 2005 is 5, that means the citations from 2001-2005 are half of all the citations from that journal in 2005, and the other half of the citations precede 2001[51]
  • Aggregate impact factor for a subject category: it is calculated taking into account the number of citations to all journals in the subject category and the number of articles from all the journals in the subject category
  • Immediacy index: the number of citations the articles in a journal receive in a given year divided by the number of articles published.
  • CiteScore: metrics for serial titles in Scopus launched in December 2016 by Elsevier.[52][53]

As with the impact factor, there are some nuances to this: for example, ISI excludes certain article types (such as news items, correspondence, and errata) from the denominator.[54][55][56]

Các cách đo tác động khác

Additional journal-level metrics are available from other organizations. The measures above apply only to journals, not individual scientists, unlike author-level metrics such as the H-index. Article-level metrics measure impact at an article level instead of journal level. Other more general alternative metrics, or "altmetrics", may include article views, downloads, or mentions in social media.

Giả mạo

Fake impact factors are produced by companies not affiliated with Journal Citation Reports.[9] These are often used by predatory publishers;[57] Jeffrey Beall maintains a list of such misleading metrics.[58] Consulting Journal Citation Reports' master journal list can confirm if a publication is indexed by Journal Citation Reports, which is a necessary (but not sufficient) condition for obtaining an IF.[59]

Xem thêm

Tham khảo

  1. ^ “Journal Citation Reports: Impact Factor”. Truy cập ngày 12 tháng 9 năm 2016.
  2. ^ “Nature”. 2014 Journal Citation Reports. Web of Science . Thomson Reuters. 2015.
  3. ^ blogs.rsc.org. "RSC Advances receives its first partial impact factor", June 24, 2013. Retrieved on May 21st 2015.
  4. ^ news.cell.com. "Our first (partial) impact factor and our continuing (full) story", July 30th, 2014. Retrieved on May 21st 2015.
  5. ^ “JCR with Eigenfactor”. Truy cập ngày 26 tháng 8 năm 2009.
  6. ^ “Web of Knowledge > Real Facts > Quality and Quantity”. Truy cập ngày 5 tháng 5 năm 2010.
  7. ^ “Thomson Reuters Master Journal List”. Thomson Reuters. Truy cập ngày 20 tháng 6 năm 2013.
  8. ^ Eugene Garfield (tháng 6 năm 1998). “The Impact Factor and Using It Correctly”. Der Unfallchirurg. 101 (6): 413–414. PMID 9677838.
  9. ^ a b Jalalian M (2015). “The story of fake impact factor companies and how we detected them”. Electronic Physician. 7 (2): 1069–72. doi:10.14661/2015.1069-1072. PMC 4477767. PMID 26120416.
  10. ^ “Time to remodel the journal impact factor”. Nature. 535 (466). 2016. doi:10.1038/535466a.
  11. ^ a b “European Association of Science Editors (EASE) Statement on Inappropriate Use of Impact Factors”. Truy cập ngày 23 tháng 7 năm 2012.
  12. ^ Callaway, Ewen (14 tháng 7 năm 2016). “Beat it, impact factor! Publishing elite turns against controversial metric”. Nature. 535 (7611): 210–211. doi:10.1038/nature.2016.20224. PMID 27411614.
  13. ^ Rossner, M.; Van Epps, H.; Hill, E. (17 tháng 12 năm 2007). “Show me the data”. Journal of Cell Biology. 179 (6): 1091–2. doi:10.1083/jcb.200711140. PMC 2140038. PMID 18086910.
  14. ^ Wesel, M. van (2016). “Evaluation by Citation: Trends in Publication Behavior, Evaluation Criteria, and the Strive for High Impact Publications”. Science and Engineering Ethics. 22 (1): 199–225. doi:10.1007/s11948-015-9638-0.
  15. ^ a b c Moustafa, Khaled (2015). “The disaster of the impact factor”. Science and Engineering Ethics. 21 (1): 139–142. doi:10.1007/s11948-014-9517-0. ISSN 1471-5546. PMID 24469472.
  16. ^ Brembs, B.,; Button, K.; Munafò, M. (2013). “Deep impact: Unintended consequences of journal rank”. Frontiers in Human Neuroscience. 7 (291): 1–12. doi:10.3389/fnhum.2013.00291.Quản lý CS1: dấu chấm câu dư (liên kết)
  17. ^ Kansa, E. (2013, December 11). It’s the neoliberalism, stupid: Why instrumentalist arguments for open access, open data, and open science are not enough. http://blogs.lse.ac.uk/impactofsocialsciences/2014/01/27/its-the-neoliberalism-stupid-kansa/
  18. ^ Cabello, F.; Rascón, M.T. (2015). “The Index and the Moon. Mortgaging Scientific Evaluation”. International Journal of Communication. 9: 1880–1887 http://ijoc.org/index.php/ijoc/article/view/3629/1407.
  19. ^ Bornmann, L.; Daniel, H. D. (2008). “What do citation counts measure? A review of studies on citing behavior”. Journal of Documentation. 64 (1): 45–80. doi:10.1108/00220410810844150.
  20. ^ Anauati, Maria Victoria and Galiani, Sebastian and Gálvez, Ramiro H., Quantifying the Life Cycle of Scholarly Articles Across Fields of Economic Research (November 11, 2014). Available at SSRN: http://ssrn.com/abstract=2523078
  21. ^ Erjen van Nierop (2009). “Why Do Statistics Journals Have Low Impact Factors?”. Statistica Neerlandica. 63 (1): 52–62. doi:10.1111/j.1467-9574.2008.00408.x.
  22. ^ Callaway, Ewen (14 tháng 7 năm 2016). “Beat it, impact factor! Publishing elite turns against controversial metric”. Nature. 535 (7611): 210–211. doi:10.1038/nature.2016.20224. PMID 27411614. Truy cập ngày 10 tháng 12 năm 2016.
  23. ^ Joint Committee on Quantitative Assessment of Research (12 tháng 6 năm 2008). “Citation Statistics” (PDF). International Mathematical Union.
  24. ^ “Not-so-deep impact”. Nature. 435 (7045): 1003–1004. 23 tháng 6 năm 2005. doi:10.1038/4351003b. PMID 15973362.
  25. ^ Lozano, George A.; Larivière, Vincent; Gingras, Yves (2012). “The weakening relationship between the impact factor and papers' citations in the digital age”. Journal of the American Society for Information Science and Technology. 63 (11): 2140–2145. doi:10.1002/asi.22731.
  26. ^ John Bohannon (2016). “Hate journal impact factors? New study gives you one more reason”. Science. doi:10.1126/science.aag0643.
  27. ^ “House of Commons – Science and Technology – Tenth Report”. 7 tháng 7 năm 2004. Truy cập ngày 28 tháng 7 năm 2008.
  28. ^ Grant, Bob (21 tháng 6 năm 2010). “New impact factors yield surprises”. The Scientist. Truy cập ngày 31 tháng 3 năm 2011.
  29. ^ "What does it mean to be #2 in Impact?", Thomson Reuters Community.
  30. ^ Seglen, P. O. (1997). “Why the impact factor of journals should not be used for evaluating research”. BMJ. 314 (7079): 498–502. doi:10.1136/bmj.314.7079.497. PMC 2126010. PMID 9056804.
  31. ^ “EASE Statement on Inappropriate Use of Impact Factors”. European Association of Science Editors. tháng 11 năm 2007. Truy cập ngày 13 tháng 4 năm 2013Bản mẫu:Inconsistent citations Chú thích journal cần |journal= (trợ giúp)Quản lý CS1: postscript (liên kết).
  32. ^ Serenko, A.; Dohan, M. (2011). “Comparing the expert survey and citation impact journal ranking methods: Example from the field of Artificial Intelligence” (PDF). Journal of Informetrics. 5 (4): 629–648. doi:10.1016/j.joi.2011.06.002.
  33. ^ Cawkell, Anthony E. (1977). “Science perceived through the Science Citation Index” (PDF). Endeavour. 1 (2): 57–62. doi:10.1016/0160-9327(77)90107-7.
  34. ^ Monastersky, Richard (14 tháng 10 năm 2005). “The Number That's Devouring Science”. The Chronicle of Higher Education.
  35. ^ Arnold, Douglas N.; Fowler, Kristine K. (2011). “Nefarious Numbers”. Notices of the American Mathematical Society. 58 (3): 434–437. arXiv:1010.0278. Bibcode:2010arXiv1010.0278A.
  36. ^ Garfield, Eugene (20 tháng 6 năm 1994). “The Thomson Reuters Impact Factor”. Thomson Reuters. Chú thích journal cần |journal= (trợ giúp)
  37. ^ PLoS Medicine Editors (6 tháng 6 năm 2006). “The Impact Factor Game”. PLoS Medicine. 3 (6): e291. doi:10.1371/journal.pmed.0030291. PMC 1475651. PMID 16749869. Ấn phẩm cho phép truy cập mở - đọc miễn phí
  38. ^ Agrawal, A. (2005). “Corruption of Journal Impact Factors” (PDF). Trends in Ecology and Evolution. 20 (4): 157. doi:10.1016/j.tree.2005.02.002. PMID 16701362.
  39. ^ Fassoulaki, A.; Papilas, K.; Paraskeva, A.; Patris, K. (2002). “Impact factor bias and proposed adjustments for its determination”. Acta Anaesthesiologica Scandinavica. 46 (7): 902–5. doi:10.1034/j.1399-6576.2002.460723.x. PMID 12139549.
  40. ^ Schuttea, H. K.; Svec, J. G. (2007). “Reaction of Folia Phoniatrica et Logopaedica on the Current Trend of Impact Factor Measures”. Folia Phoniatrica et Logopaedica. 59 (6): 281–285. doi:10.1159/000108334. PMID 17965570.
  41. ^ “Journal Citation Reports – Notices”. Bản gốc lưu trữ ngày 15 tháng 5 năm 2010. Truy cập ngày 24 tháng 9 năm 2009. Đã bỏ qua tham số không rõ |deadurl= (gợi ý |url-status=) (trợ giúp)
  42. ^ Wilhite, A. W.; Fong, E. A. (2012). “Coercive Citation in Academic Publishing”. Science. 335 (6068): 542–3. Bibcode:2012Sci...335..542W. doi:10.1126/science.1212540. PMID 22301307.
  43. ^ Smith, Richard (15 tháng 2 năm 1997). “Journal accused of manipulating impact factor”. BMJ. 314 (7079): 461. doi:10.1136/bmj.314.7079.461d. PMC 2125988. PMID 9056791. Truy cập ngày 10 tháng 12 năm 2016 – qua www.bmj.com.
  44. ^ “International Council for Science statement”. Icsu.org. 2 tháng 5 năm 2014. Truy cập ngày 18 tháng 5 năm 2014.
  45. ^ DFG press release <http://www.dfg.de/en/service/press/press_releases/2010/pressemitteilung_nr_07/index.html>
  46. ^ Cabello, F. and Rascon, M.T. (2015) "The Index and the Moon. Mortgaging Scientific Evaluation". International Journal of Communication <http://ijoc.org/index.php/ijoc/article/view/3629/1407>
  47. ^ Original LERU press release <http://www.leru.org/index.php/public/news/not-everything-that-can-be-counted-counts->
  48. ^ Veronique Kiermer (2016). “Measuring Up: Impact Factors Do Not Reflect Article Citation Rates”. PLOS.
  49. ^ “Ditching Impact Factors for Deeper Data”. Truy cập ngày 29 tháng 7 năm 2016.
  50. ^ “Scientific publishing observers and practitioners blast the JIF and call for improved metrics”. Truy cập ngày 8 tháng 3 năm 2016.
  51. ^ “Impact Factor, Immediacy Index, Cited Half-life”. Swedish University of Agricultural Sciences. Bản gốc lưu trữ ngày 23 tháng 5 năm 2008. Truy cập ngày 30 tháng 10 năm 2016.
  52. ^ Elsevier. “Metrics - Features - Scopus - Solutions | Elsevier”. www.elsevier.com. Truy cập ngày 9 tháng 12 năm 2016.
  53. ^ Van Noorden, Richard. “Controversial impact factor gets a heavyweight rival”. Nature. 540: 325–326. doi:10.1038/nature.2016.21131.
  54. ^ “Bibliometrics (journal measures)”. Elsevier. Truy cập ngày 9 tháng 7 năm 2012. a measure of the speed at which content in a particular journal is picked up and referred to
  55. ^ “Glossary of Thomson Scientific Terminology”. Thomson Reuters. Truy cập ngày 9 tháng 7 năm 2012.
  56. ^ “Journal Citation Reports Contents -- Immediacy Index” ((online)). Clarivate Analytics. Truy cập ngày 9 tháng 7 năm 2012. The Immediacy Index is the average number of times an article is cited in the year it is published. The journal Immediacy Index indicates how quickly articles in a journal are cited. The aggregate Immediacy Index indicates how quickly articles in a subject category are cited.
  57. ^ Jeffrey Beall. “Scholarly Open-Access - Fake impact factors”. Bản gốc lưu trữ ngày 21 tháng 3 năm 2016. Đã bỏ qua tham số không rõ |deadurl= (gợi ý |url-status=) (trợ giúp)
  58. ^ Misleading Metrics
  59. ^ “Thomson Reuters Interllectual Property & Science Master Journal List”.

Đọc thêm

Liên kết ngoài