닫기

Ex) Article Title, Author, Keywords

Review Article

Split Viewer

Journal of Digestive Cancer Research 2024; 12(1): 38-43

Published online April 20, 2024

https://doi.org/10.52927/jdcr.2024.12.1.38

© Korean Society of Gastrointestinal Cancer Research

인공지능으로 작성된 논문의 처리 방안

How to Review a Paper Written by Artificial Intelligence

신동우 , 문성훈
Dong Woo Shin , Sung-Hoon Moon


한림대학교 의과대학 한림대학교 성심병원 내과학교실 소화기내과
Division of Gastroenterology, Department of Internal Medicine, Hallym University Sacred Heart Hospital, Hallym University College of Medicine, Anyang, Korea

Correspondence to :
Dong Woo Shin
E-mail: delight0618@hallym.or.kr
https://orcid.org/0000-0002-2078-3298

Received: March 18, 2024; Revised: April 8, 2024; Accepted: April 8, 2024

This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (http://creativecommons.org/licenses/by-nc/4.0). which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

Artificial Intelligence (AI) is the intelligence of machines or software, in contrast to human intelligence. Generative AI technologies, such as ChatGPT, have emerged as valuable research tools that facilitate brainstorming ideas for research, analyzing data, and writing papers. However, their application has raised concerns regarding authorship, copyright, and ethical considerations. Many organizations of medical journal editors, including the International Committee of Medical Journal Editors and the World Association of Medical Editors, do not recognize AI technology as an author. Instead, they recommend that researchers explicitly acknowledge the use of AI tools in their research methods or acknowledgments. Similarly, international journals do not recognize AI tools as authors and insist that human authors should be accountable for the research findings. Therefore, when integrating AI-generated content into papers, it should be disclosed under the responsibility of human authors, and the details of the AI tools employed should be specified to ensure transparency and reliability.

KeywordsArtificial intelligence Write Review Paper

인공지능(artificial intelligence, AI)은 인간의 지능(human intelligence)을 인공적으로 구현하려는 컴퓨터 과학의 세부 분야이다. 그중 생성형 인공지능(generative AI)은 텍스트, 코드, 이미지, 비디오, 오디오 등의 새로운 컨텐츠를 생성하는 데 사용될 수 있는 알고리즘으로 ChatGPT가 대표적이다. 의학 연구에서도 생성형 인공지능이 상당한 주목을 받게 되어 대규모 언어 모델(large language models)을 이용한 논문들이 발표되고 있다. 인공지능 기술은 논문 원고의 작성, 실험 설계, 피어 리뷰 및 편집 과정에서 두루 활용될 것으로 예측된다. 2023년 영국 맨체스터대학교 간호학과 O’Connor [1] 교수의 논문에서 ChatGPT를 공저자로 기술하였으며 이를 저자로 인정해야 하는지에 대해 많은 논란이 있었다(Fig. 1). 일각에서는 생성형 인공지능이 연구의 표절(plagiarism), 저작권 침해(copyright infringement), 저자됨(authorship)에 윤리적, 법적 문제가 있을 수 있으며 연구자의 창작성과 독창성에 악영향을 끼칠 수 있다고 우려한다[2,3]. ChatGPT는 그럴듯하지만 부정확하거나, 때로는 이치에 맞지 않는 대답을 내놓고, 심지어는 ‘환각(hallucinating)’ 현상을 보이기도 한다. 하지만, 이러한 우려와는 반대로 저자가 책임감 있게 잘 활용한다면 작업 능률이나 성과를 크게 향상시킬 수 있다는 의견도 있어 논란이 있다[4]. 분명한 것은 인공지능 기술은 끊임없이 진화 중이며 거스를 수 없는 대세이기 때문에 의학 논문을 작성할 때 윤리적이고 효과적으로 사용하기 위한 지침과 교육이 필요하다.

Fig. 1.ChatGPT listed as author on research paper.

본 글에서는 논문 작성 과정에서 인공지능 도구의 활용과 관련하여 의학/과학학술지 편집인위원회 및 주요 저널이 발표한 정책을 소개하고자 한다.

의학/과학학술지 편집인위원회의 권고사항

국제의학학술지편집인위원회(International Committee of Medical Journal Editors, ICMJE) [5]의 2023년 권고안 ‘Recommendations for the Conduct, Reporting, Editing, and Publication of Scholarly Work in Medical Journals’는 인공지능 기술의 도움을 받아 수행된 연구 결과물의 저자 및 기여자 표기 등에 대한 규정을 발표하였다(Table 1). 인공지능 도구는 정확성(accuracy), 진실성(integrity) 및 독창성(originality)에 대한 책임을 질 수 없기 때문에 인공지능 기술을 저자 또는 공저자로 기재하는 것을 금지하며, 이를 저자로 인용하지도 않을 것을 권고하였다. 논문을 작성하면서 데이터 수집이나 분석, 그림 작성, 본문 작성 등에 인공지능 도구(대규모 언어 모델, 챗봇, 이미지 생성기 등)를 사용했다면 논문 제출 시 제출 원고(submitted work)나 표지 서신(cover letter)에 공개할 것을 권고하였다. 또한, 논문에 대한 책임은 전적으로 저자에게 있으므로 챗봇(예: ChatGPT)을 저자나 공저자로 기술하면 안 된다고 하였다. 따라서, 인공지능 지원 기술들이 포함된 모든 자료에 대한 책임을 인간이 져야 한다는 의미이다. 논문 작성 과정에서 데이터 분석, 이미지 해석, 자동 번역 등 다양한 분야에서 인공지능이 사용될 수 있으므로 어떠한 작업에 활용되었는지 공개하여 연구의 투명성이 유지될 수 있도록 할 것을 권고하였다. 저자는 인공지능에 의해 생성된 텍스트와 이미지를 포함하여 논문에서 표절이 없다는 것을 단언할 수 있어야 한다.

Table 1 . Policy on the Use of Generative Artificial Intelligence by the Organization of Medical Journal Editors

Guidelines for AI authorshipAdditional guidelines for authors, reviewers, and editors
ICMJE [5]Chatbots (such as ChatGPT) should not be listed as authors because they cannot be responsible for the accuracy, integrity, and originality of the work, and these responsibilities are required for authorship. Authors should not list AI and AI-assisted technologies nor cite AI as an author• At submission, the journal should require authors to disclose whether they used AI-assisted technologies (such as LLMs, chatbots, or image creators) in the production of submitted work
• Authors who use such technology should describe, in both the cover letter and the submitted work, how they used it
• Humans are responsible for any submitted material that included the use of AI assisted technologies
• Authors should carefully review and edit the result because AI can generate authoritative-sounding output that can be incorrect, incomplete, or biased
• Authors should be able to assert that there is no plagiarism in their paper, including in text and images produced by the AI
• Humans must ensure there is appropriate attribution of all quoted material, including full citations
WAME [6]Chatbots cannot be authors• Authors should be transparent when chatbots are used and provide information about how they were used
• Authors are responsible for material provided by a chatbot in their paper (including the accuracy of what is presented and the absence of plagiarism) and for appropriate attribution of all sources (including original sources for material generated by the chatbot)
• Editors and peer reviewers should specify, to authors and each other, any use of chatbots in the evaluation of the manuscript and generation of reviews and correspondence. If they use chatbots in their communications with authors and each other, they should explain how they were used
• Editors need appropriate tools to help them detect content generated or altered by AI. Such tools should be made available to editors regardless of ability to pay for them, for the good of science and the public, and to help ensure the integrity of healthcare information and reducing the risk of adverse health outcomes
COPE [7]COPE joins organizations, such as WAME and the JAMA Network among others, to state that AI tools cannot be listed as an author of a paper• Authors who use AI tools in the writing of a manuscript, production of images or graphical elements of the paper, or in the collection and analysis of data, must be transparent in disclosing in the Materials and Methods (or similar section) of the paper how the AI tool was used and which tool was used. Authors are fully responsible for the content of their manuscript, even those parts produced by an AI tool, and are thus liable for any breach of publication ethics

AI, artificial intelligence; LLM, large language model; ICMJE, International Committee of Medical Journal Editors; WAME, World Association of Medical Editors; COPE, Committee on Publication Ethics; JAMA, Journal of the American Medical Association.



세계의학편집인협의회(World Association of Medical Editors, WAME)는 2023년 1월 ‘학술 출판에서 ChatGPT 및 챗봇 사용에 관한 권고사항(Recommendations on ChatGPT and Chatbots in Relation to Scholarly Publications)’을 소개한 바 있으며 2023년 5월 개정판을 발표했다. 개정판에 따른 권고사항은 5가지로 요약할 수 있다[6]. 첫째, 인간만이 저자가 될 수 있다(only humans can be authors). 둘째, 저자는 자료의 출처를 밝혀야 한다(authors should acknowledge the sources of their materials). 셋째, 저자는 연구 결과에 대한 공식적 책임을 져야 한다(authors must take public responsibility for their work). 넷째, 편집자와 리뷰어는 논문 원고에 대한 평가와 리뷰 의견 작성 및 교신 과정에서 챗봇을 사용한 경우 이를 명시해야 한다(editors and reviewers should specify, to authors and each other, any use of chatbots in evaluation of the manuscript and generation of reviews and correspondence). 다섯째, 편집자는 출판에서 챗봇의 영향을 처리하기 위해 필요한 적절한 디지털 도구를 갖추어야 한다(editors need appropriate digital tools to deal with the effects of chatbots on publishing).

국제학술지출판윤리위원회(Committee on Publication Ethics, COPE)에서 발생한 ‘Principles of Transparency and Best Practice in Scholarly Publishing’에서도 논문의 작성 과정에서 인공지능 도구를 사용했다면 본문의 재료 및 방법 섹션에서 공개할 것을 권고하였다[7]. 인공지능 도구에 의해 생성된 부분을 포함하여 논문 출판 윤리 위반에 대한 모든 책임은 저자에게 있다고 하였으며 저자 표시에 대한 세계의학편집인협의회와 미국의학협회저널네트워크의 입장을 지지한다고 밝혔다.

과학학술지편집인위원회의(Council of Science Editors, CSE)에서도 2023년 ‘Recommendations for Promoting Integrity in Scientific Journal Publications’를 발표하였다[8]. 이 권고안에 따르면 저자는 논문의 작성에 사용한 인공지능 도구(ChatGPT, 챗봇, 대규모 언어 모델)나 기계 학습 도구가 어떻게 사용되었는지 submission question이나 표지 서신에 명확하게 설명해야 한다. 특히, 데이터 수집, 분석, 결과 해석 등에서 인공지능의 역할을 명시해야 한다. 학술지는 저자에게 텍스트나 이미지의 작성에 인공지능 기술을 사용했는지, 사용한 기술의 사양(이름, 버전, 모델) 및 응용 방법에 대해 공개할 것을 요청할 수 있다고 하였다. 궁극적으로, 인간 작성자는 인공지능의 지원을 받아 생성된 내용의 정확성, 표절의 부재 및 출처에 대한 적절한 인정을 포함하여 원고의 모든 측면을 책임져야 한다고 한 바 있다. 이러한 권고안은 인공지능 기술을 사용한 논문의 투명성과 타당성을 유지하는 데 도움이 될 수 있다.

인공지능 연구 윤리에 대한 주요 학술 단체의 입장

Nature지는 2023년 1월 대규모 언어모델의 윤리적 사용과 관련된 2가지 원칙을 제시하였다[9-11]. 첫째, 대규모 언어 모델은 연구 논문의 저자가 될 수 없다고 하였다. 저자로 표시(attribution of authorship)된다는 것은 해당 연구 결과에 대한 책임(accountability)을 진다는 의미인데 인공지능 도구는 그런 책임(responsibility)을 질 수 없다는 것을 그 근거로 들었다. 둘째, 대규모 언어 모델을 사용하는 연구자는 연구 방법(method) 또는 감사의 글(acknowledgements) 섹션에 해당 사실을 기술해야 한다고 하였다(Table 2).

Table 2 . Editorial Policy on the Use of Generative Artificial Intelligence in International Journals

Guidelines for AI authorshipAdditional guidelines for authors, reviewers, and editors
Nature [9-11]LLMs, such as ChatGPT, do not currently satisfy our authorship criteria• Use of an LLM should be properly documented in the Methods section (and if a Methods section is not available, in a suitable alternative part) of the manuscript
Science [12,13]An AI program cannot be an author of a Science journal paper• Text generated from AI, machine learning, or similar algorithmic tools cannot be used in papers published in Science journals, nor can the accompanying figures, images, or graphics be the products of such tools, without explicit permission from the editors
JAMA [14,15]Nonhuman AI, language models, machine learning, or similar technologies do not qualify for authorship. If these models or tools are used to create content or assist with writing or manuscript preparation, authors must take responsibility for the integrity of the content generated by these tools• The submission and publication of content/images created by AI, language models, machine learning, or similar technologies is discouraged, unless part of formal research design or methods, and is not permitted without clear description of the content that was created and the name of the model or tool, version and extension numbers, and manufacturer. Authors must take responsibility for the integrity of the content generated by these models and tools
• Authors should report the use of AI, language models, machine learning, or similar technologies to create content or assist with writing or editing of manuscripts in the Acknowledgment section or the Methods section if this is part of formal research design or methods. This should include a description of the content that was created or edited and the name of the language model or tool, version and extension numbers, and manufacturer*

AI, artificial intelligence; LLM, large language model; JAMA, Journal of the American Medical Association.

*This does not include basic tools for checking grammar, spelling, references, etc.



Science지의 편집 정책(editorial policies)에서도 인공지능 챗봇이 저자가 될 수 없다고 밝혔으며 이를 위반하는 것은 과학적 부정 행위에 해당한다고 명시하였다[12,13]. 또한, 인공지능, 기계 학습, 또는 유사한 알고리즘 도구를 활용하여 생성된 텍스트, 그림, 이미지, 그래픽은 편집자의 명시적인 허락이 없는 상태에서 Science지의 논문에 사용할 수 없다고 하였다.

Nature지와 Science지 모두 생성형 인공지능을 저자로 인정하지 않았지만 활용에 대해서는 두 저널의 입장이 약간 다르다. Nature지는 인공지능 도구를 사용한 경우 ‘연구 방법’ 또는 ‘감사의 글’ 항목 등에 그 내용을 기록하면 된다는 허용적인 입장이었던 반면, Science지는 ChatGPT나 다른 인공지능 도구를 이용해 생성한 문서, 제작한 그림, 이미지, 그래픽은 논문에 사용할 수 없다며 이 지침을 위반하는 것은 이미지를 변경하거나 기존 연구를 표절하는 것과 다를 바 없는 연구부정행위(scientific misconduct)에 해당한다고 밝힘으로써 인공지능 활용에 대해 극히 부정적인 입장을 표명했다.

미국의학협회저널네트워크(Journal of the American Medical Association, JAMA Network)는 인공지능 및 유사 기술들은 저자로 표시될 수 없고, 논문 작성에 활용된 경우 이로 인한 연구 진실성은 저자가 책임을 져야 한다는 입장을 밝혔고 주요 내용은 다음과 같다[14,15]. 첫째, 저자 책임(author responsibilities); 인간이 아닌 인공지능, 언어 모델, 기계 학습 또는 이들과 유사한 기술들은 저자로 표시될 수 있는 자격이 없다. 만약 이러한 도구가 콘텐츠를 생성하거나 논문 원고의 작성에 사용된다면 저자가 생성된 콘텐츠의 진실성에 대한 책임을 져야 한다. 만약, 내용이 공식적인 연구 설계 또는 연구 방법론의 일부라면 저자는 논문 원고의 작성이나 편집을 돕는 데 인공지능 기술이 사용되었다는 내용을 감사의 글 또는 연구 방법론에 보고해야 한다. 둘째, 재생된 자료(reproduced and recreated material), 이미지 진실성(image integrity); 공식적인 연구 설계나 방법론의 일부가 아닌 한, 인공지능 기술에 의해 생성된 콘텐츠의 투고와 출판은 권장되지 않으며 생성된 콘텐츠와 사용된 언어 모델 또는 도구의 이름, 버전 및 확장번호, 제조사에 의한 명확한 설명 없이는 동 콘텐츠의 투고와 출판이 허용되지 않는다. 저자는 이러한 모델과 도구에 의해 생성된 콘텐츠의 진실성에 대한 책임을 져야 한다.

논문을 리뷰하고 편집하는 과정에서 주의할 점

의학 저널의 리뷰어와 편집자는 생성형 인공지능 기술로 작성된 원고를 어떻게 구별해낼 수 있을지 고민을 하게 된다. 우선, 생성형 인공지능의 최신 발전 상황을 정확하게 이해하고 있어야 한다. 인공지능의 잠재력과 한계를 이해하기 위해 신뢰할 만한 글들을 읽고 학회에도 참석해보기를 권한다. 생성형 인공지능을 사용한 문장은 다음과 같은 몇 가지 방법을 이용하여 감별해낼 수 있다. (1) 이상한 언어 패턴 식별하기: 인공지능이 생성한 원고는 일관성이 없거나 예상치 못한 언어 패턴을 보이는 경우가 많다. 글쓰기 스타일, 문장 구성, 어휘의 급격한 변화가 없는지 주의해서 검토해야 한다. (2) 표절 검출 도구(plagiarism-detection tool) 사용하기: 다양한 표절 검출 소프트웨어가 출시되어 있어 과거에 출판된 문장이 표절되었는지 식별할 수 있다. 생성형 인공지능에 의해 작성된 문장은 다양한 출처의 비슷한 내용을 포함할 수 있다. (3) 참조 및 인용문을 철저히 검토하기: 제공된 참조 및 인용문을 철저히 검토해야 한다. 인공지능이 생성한 문장은 전혀 관련이 없는 문헌을 인용하여 일관성이 없을 수 있다. (4) 그림과 표 검토하기: 그림과 표에 제시된 데이터가 정확한지 확인해야 한다. 인공지능이 생성한 원고는 연구의 목적과 부합하지 않는 데이터를 포함할 수 있다. (5) 저자 확인: 교신 저자, 공동 저자의 소속, 이메일 주소, 이전 출판물을 확인해야 한다.

대부분의 의학/과학학술지 편집인위원회와 권위 있는 국제 저널은 인공지능 도구를 저자로 인정하지 않고 있으며, 윤리적·법률적 측면을 고려하여 인간만이 저자로 표시될 수 있다고 명시하였다. 인공지능은 연구 결과에 책임을 질 수 없기 때문에 데이터의 투명성, 신뢰성이 보장되지 않는다는 것이 그 이유다. 인공지능 알고리즘은 왜 그러한 연구 결과를 제시하는지 설명하기 어려운 ‘black box’ 성격이 있어 해석에 주의를 요한다. 인공지능 알고리즘의 타당성이 보장될 때 비로소 연구 결과를 신뢰할 수 있기 때문에 저자가 논문 작업에서 인공지능 도구를 어떻게 사용했는지 공개하고 상세히 설명할 수 있어야 한다. 생성형 인공지능의 도움을 받아 작성한 논문도 데이터의 정확성, 윤리적 기준을 모두 충족해야 한다는 점을 잊지 말아야 한다.

No potential conflict of interest relevant to this article was reported.

Conceptualization: Dong Woo Shin, Sung-Hoon Moon. Formal analysis: Dong Woo Shin. Supervision: Dong Woo Shin, Sung-Hoon Moon. Writing—original draft: Dong Woo Shin. Writing—review & editing: Dong Woo Shin, Sung-Hoon Moon.

  1. O'Connor S. Open artificial intelligence platforms in nursing education: tools for academic progress or abuse? Nurse Educ Pract 2023;66:67.103537. Erratum in: Nurse Educ Pract 2023;67:103572. https://doi.org/10.1016/j.nepr.2022.103537.
    Pubmed CrossRef
  2. Donker T. The dangers of using large language models for peer review. Lancet Infect Dis 2023;23:781. https://doi.org/10.1016/S1473-3099(23)00290-6.
    Pubmed CrossRef
  3. Garcia MB. Using AI tools in writing peer review reports: should academic journals embrace the use of ChatGPT? Ann Biomed Eng 2024;52:139-140. https://doi.org/10.1007/s10439-023-03299-7.
    Pubmed CrossRef
  4. Li H, Moon JT, Purkayastha S, Celi LA, Trivedi H, Gichoya JW. Ethics of large language models in medicine and medical research. Lancet Digit Health 2023;5:e333-e335. https://doi.org/10.1016/S2589-7500(23)00083-3.
    Pubmed CrossRef
  5. International Committee of Medical Journal Editors (ICMJE). Recommendations for the conduct, reporting, editing, and publication of scholarly work in medical journals. ; 2024 [accessed March 1, 2024]. https://www.icmje.org/recommendations/.
  6. Zielinski C, Winker MA, Aggarwal R, et al. Chatbots, generative AI, and scholarly manuscripts. WAME recommendations on chatbots and generative artificial intelligence in relation to scholarly publications. ; 2023 [accessed March 1, 2024]. https://www.wame.org/page2.php?id=106.
    Pubmed CrossRef
  7. Committee on Publication Ethics (COPE). Principles of transparency and best practice in scholarly publishing. ; 2022 [accessed March 1, 2024]. https://publicationethics.org/resources/guidelines/principles-transparency-and-best-practice-scholarly-publishing.
  8. Council of Science Editors (CSE). Recommendations for promoting integrity in scientific journal publications. ; 2024 [accessed March 1, 2024]. https://www.councilscienceeditors.org/recommendations-for-promoting-integrity-in-scientific-journal-publications.
  9. Stokel-Walker C. ChatGPT listed as author on research papers: many scientists disapprove. Nature 2023;613:620-621. https://doi.org/10.1038/d41586-023-00107-z.
    Pubmed CrossRef
  10. Tools such as ChatGPT threaten transparent science; here are our ground rules for their use. Nature 2023;613:612. https://doi.org/10.1038/d41586-023-00191-1.
    Pubmed CrossRef
  11. Nature. For authors: initial submission. [accessed March 1, 2024]. https://www.nature.com/nature/for-authors/initial-submission.
  12. Thorp HH, Vinson V. Change to policy on the use of generative AI and large language models. ; 2023 [accessed March 1, 2024]. https://www.science.org/content/blog-post/change-policy-use-generative-ai-and-large-language-models.
  13. American Association for the Advancement of Science. Science journals: editorial policies. [accessed March 1, 2024]. https://www.science.org/content/page/science-journals-editorial-policies.
  14. Flanagin A, Bibbins-Domingo K, Berkwits M, Christiansen SL. Nonhuman "authors" and implications for the integrity of scientific publication and medical knowledge. JAMA 2023;329:637-639. https://doi.org/10.1001/jama.2023.1344.
    Pubmed CrossRef
  15. JAMA. Instructions for authors. [accessed March 1, 2024]. https://jamanetwork.com/journals/jama/pages/instructions-for-authors.

Article

Review Article

Journal of Digestive Cancer Research 2024; 12(1): 38-43

Published online April 20, 2024 https://doi.org/10.52927/jdcr.2024.12.1.38

Copyright © Korean Society of Gastrointestinal Cancer Research.

인공지능으로 작성된 논문의 처리 방안

신동우, 문성훈

한림대학교 의과대학 한림대학교 성심병원 내과학교실 소화기내과

Received: March 18, 2024; Revised: April 8, 2024; Accepted: April 8, 2024

How to Review a Paper Written by Artificial Intelligence

Dong Woo Shin , Sung-Hoon Moon

Division of Gastroenterology, Department of Internal Medicine, Hallym University Sacred Heart Hospital, Hallym University College of Medicine, Anyang, Korea

Correspondence to:Dong Woo Shin
E-mail: delight0618@hallym.or.kr
https://orcid.org/0000-0002-2078-3298

Received: March 18, 2024; Revised: April 8, 2024; Accepted: April 8, 2024

This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (http://creativecommons.org/licenses/by-nc/4.0). which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

Abstract

Artificial Intelligence (AI) is the intelligence of machines or software, in contrast to human intelligence. Generative AI technologies, such as ChatGPT, have emerged as valuable research tools that facilitate brainstorming ideas for research, analyzing data, and writing papers. However, their application has raised concerns regarding authorship, copyright, and ethical considerations. Many organizations of medical journal editors, including the International Committee of Medical Journal Editors and the World Association of Medical Editors, do not recognize AI technology as an author. Instead, they recommend that researchers explicitly acknowledge the use of AI tools in their research methods or acknowledgments. Similarly, international journals do not recognize AI tools as authors and insist that human authors should be accountable for the research findings. Therefore, when integrating AI-generated content into papers, it should be disclosed under the responsibility of human authors, and the details of the AI tools employed should be specified to ensure transparency and reliability.

Keywords: Artificial intelligence, Write, Review, Paper

INTRODUCTION

인공지능(artificial intelligence, AI)은 인간의 지능(human intelligence)을 인공적으로 구현하려는 컴퓨터 과학의 세부 분야이다. 그중 생성형 인공지능(generative AI)은 텍스트, 코드, 이미지, 비디오, 오디오 등의 새로운 컨텐츠를 생성하는 데 사용될 수 있는 알고리즘으로 ChatGPT가 대표적이다. 의학 연구에서도 생성형 인공지능이 상당한 주목을 받게 되어 대규모 언어 모델(large language models)을 이용한 논문들이 발표되고 있다. 인공지능 기술은 논문 원고의 작성, 실험 설계, 피어 리뷰 및 편집 과정에서 두루 활용될 것으로 예측된다. 2023년 영국 맨체스터대학교 간호학과 O’Connor [1] 교수의 논문에서 ChatGPT를 공저자로 기술하였으며 이를 저자로 인정해야 하는지에 대해 많은 논란이 있었다(Fig. 1). 일각에서는 생성형 인공지능이 연구의 표절(plagiarism), 저작권 침해(copyright infringement), 저자됨(authorship)에 윤리적, 법적 문제가 있을 수 있으며 연구자의 창작성과 독창성에 악영향을 끼칠 수 있다고 우려한다[2,3]. ChatGPT는 그럴듯하지만 부정확하거나, 때로는 이치에 맞지 않는 대답을 내놓고, 심지어는 ‘환각(hallucinating)’ 현상을 보이기도 한다. 하지만, 이러한 우려와는 반대로 저자가 책임감 있게 잘 활용한다면 작업 능률이나 성과를 크게 향상시킬 수 있다는 의견도 있어 논란이 있다[4]. 분명한 것은 인공지능 기술은 끊임없이 진화 중이며 거스를 수 없는 대세이기 때문에 의학 논문을 작성할 때 윤리적이고 효과적으로 사용하기 위한 지침과 교육이 필요하다.

Figure 1. ChatGPT listed as author on research paper.

본 글에서는 논문 작성 과정에서 인공지능 도구의 활용과 관련하여 의학/과학학술지 편집인위원회 및 주요 저널이 발표한 정책을 소개하고자 한다.

MAIN SUBJECTS

의학/과학학술지 편집인위원회의 권고사항

국제의학학술지편집인위원회(International Committee of Medical Journal Editors, ICMJE) [5]의 2023년 권고안 ‘Recommendations for the Conduct, Reporting, Editing, and Publication of Scholarly Work in Medical Journals’는 인공지능 기술의 도움을 받아 수행된 연구 결과물의 저자 및 기여자 표기 등에 대한 규정을 발표하였다(Table 1). 인공지능 도구는 정확성(accuracy), 진실성(integrity) 및 독창성(originality)에 대한 책임을 질 수 없기 때문에 인공지능 기술을 저자 또는 공저자로 기재하는 것을 금지하며, 이를 저자로 인용하지도 않을 것을 권고하였다. 논문을 작성하면서 데이터 수집이나 분석, 그림 작성, 본문 작성 등에 인공지능 도구(대규모 언어 모델, 챗봇, 이미지 생성기 등)를 사용했다면 논문 제출 시 제출 원고(submitted work)나 표지 서신(cover letter)에 공개할 것을 권고하였다. 또한, 논문에 대한 책임은 전적으로 저자에게 있으므로 챗봇(예: ChatGPT)을 저자나 공저자로 기술하면 안 된다고 하였다. 따라서, 인공지능 지원 기술들이 포함된 모든 자료에 대한 책임을 인간이 져야 한다는 의미이다. 논문 작성 과정에서 데이터 분석, 이미지 해석, 자동 번역 등 다양한 분야에서 인공지능이 사용될 수 있으므로 어떠한 작업에 활용되었는지 공개하여 연구의 투명성이 유지될 수 있도록 할 것을 권고하였다. 저자는 인공지능에 의해 생성된 텍스트와 이미지를 포함하여 논문에서 표절이 없다는 것을 단언할 수 있어야 한다.

Table 1 . Policy on the Use of Generative Artificial Intelligence by the Organization of Medical Journal Editors.

Guidelines for AI authorshipAdditional guidelines for authors, reviewers, and editors
ICMJE [5]Chatbots (such as ChatGPT) should not be listed as authors because they cannot be responsible for the accuracy, integrity, and originality of the work, and these responsibilities are required for authorship. Authors should not list AI and AI-assisted technologies nor cite AI as an author• At submission, the journal should require authors to disclose whether they used AI-assisted technologies (such as LLMs, chatbots, or image creators) in the production of submitted work
• Authors who use such technology should describe, in both the cover letter and the submitted work, how they used it
• Humans are responsible for any submitted material that included the use of AI assisted technologies
• Authors should carefully review and edit the result because AI can generate authoritative-sounding output that can be incorrect, incomplete, or biased
• Authors should be able to assert that there is no plagiarism in their paper, including in text and images produced by the AI
• Humans must ensure there is appropriate attribution of all quoted material, including full citations
WAME [6]Chatbots cannot be authors• Authors should be transparent when chatbots are used and provide information about how they were used
• Authors are responsible for material provided by a chatbot in their paper (including the accuracy of what is presented and the absence of plagiarism) and for appropriate attribution of all sources (including original sources for material generated by the chatbot)
• Editors and peer reviewers should specify, to authors and each other, any use of chatbots in the evaluation of the manuscript and generation of reviews and correspondence. If they use chatbots in their communications with authors and each other, they should explain how they were used
• Editors need appropriate tools to help them detect content generated or altered by AI. Such tools should be made available to editors regardless of ability to pay for them, for the good of science and the public, and to help ensure the integrity of healthcare information and reducing the risk of adverse health outcomes
COPE [7]COPE joins organizations, such as WAME and the JAMA Network among others, to state that AI tools cannot be listed as an author of a paper• Authors who use AI tools in the writing of a manuscript, production of images or graphical elements of the paper, or in the collection and analysis of data, must be transparent in disclosing in the Materials and Methods (or similar section) of the paper how the AI tool was used and which tool was used. Authors are fully responsible for the content of their manuscript, even those parts produced by an AI tool, and are thus liable for any breach of publication ethics

AI, artificial intelligence; LLM, large language model; ICMJE, International Committee of Medical Journal Editors; WAME, World Association of Medical Editors; COPE, Committee on Publication Ethics; JAMA, Journal of the American Medical Association..



세계의학편집인협의회(World Association of Medical Editors, WAME)는 2023년 1월 ‘학술 출판에서 ChatGPT 및 챗봇 사용에 관한 권고사항(Recommendations on ChatGPT and Chatbots in Relation to Scholarly Publications)’을 소개한 바 있으며 2023년 5월 개정판을 발표했다. 개정판에 따른 권고사항은 5가지로 요약할 수 있다[6]. 첫째, 인간만이 저자가 될 수 있다(only humans can be authors). 둘째, 저자는 자료의 출처를 밝혀야 한다(authors should acknowledge the sources of their materials). 셋째, 저자는 연구 결과에 대한 공식적 책임을 져야 한다(authors must take public responsibility for their work). 넷째, 편집자와 리뷰어는 논문 원고에 대한 평가와 리뷰 의견 작성 및 교신 과정에서 챗봇을 사용한 경우 이를 명시해야 한다(editors and reviewers should specify, to authors and each other, any use of chatbots in evaluation of the manuscript and generation of reviews and correspondence). 다섯째, 편집자는 출판에서 챗봇의 영향을 처리하기 위해 필요한 적절한 디지털 도구를 갖추어야 한다(editors need appropriate digital tools to deal with the effects of chatbots on publishing).

국제학술지출판윤리위원회(Committee on Publication Ethics, COPE)에서 발생한 ‘Principles of Transparency and Best Practice in Scholarly Publishing’에서도 논문의 작성 과정에서 인공지능 도구를 사용했다면 본문의 재료 및 방법 섹션에서 공개할 것을 권고하였다[7]. 인공지능 도구에 의해 생성된 부분을 포함하여 논문 출판 윤리 위반에 대한 모든 책임은 저자에게 있다고 하였으며 저자 표시에 대한 세계의학편집인협의회와 미국의학협회저널네트워크의 입장을 지지한다고 밝혔다.

과학학술지편집인위원회의(Council of Science Editors, CSE)에서도 2023년 ‘Recommendations for Promoting Integrity in Scientific Journal Publications’를 발표하였다[8]. 이 권고안에 따르면 저자는 논문의 작성에 사용한 인공지능 도구(ChatGPT, 챗봇, 대규모 언어 모델)나 기계 학습 도구가 어떻게 사용되었는지 submission question이나 표지 서신에 명확하게 설명해야 한다. 특히, 데이터 수집, 분석, 결과 해석 등에서 인공지능의 역할을 명시해야 한다. 학술지는 저자에게 텍스트나 이미지의 작성에 인공지능 기술을 사용했는지, 사용한 기술의 사양(이름, 버전, 모델) 및 응용 방법에 대해 공개할 것을 요청할 수 있다고 하였다. 궁극적으로, 인간 작성자는 인공지능의 지원을 받아 생성된 내용의 정확성, 표절의 부재 및 출처에 대한 적절한 인정을 포함하여 원고의 모든 측면을 책임져야 한다고 한 바 있다. 이러한 권고안은 인공지능 기술을 사용한 논문의 투명성과 타당성을 유지하는 데 도움이 될 수 있다.

인공지능 연구 윤리에 대한 주요 학술 단체의 입장

Nature지는 2023년 1월 대규모 언어모델의 윤리적 사용과 관련된 2가지 원칙을 제시하였다[9-11]. 첫째, 대규모 언어 모델은 연구 논문의 저자가 될 수 없다고 하였다. 저자로 표시(attribution of authorship)된다는 것은 해당 연구 결과에 대한 책임(accountability)을 진다는 의미인데 인공지능 도구는 그런 책임(responsibility)을 질 수 없다는 것을 그 근거로 들었다. 둘째, 대규모 언어 모델을 사용하는 연구자는 연구 방법(method) 또는 감사의 글(acknowledgements) 섹션에 해당 사실을 기술해야 한다고 하였다(Table 2).

Table 2 . Editorial Policy on the Use of Generative Artificial Intelligence in International Journals.

Guidelines for AI authorshipAdditional guidelines for authors, reviewers, and editors
Nature [9-11]LLMs, such as ChatGPT, do not currently satisfy our authorship criteria• Use of an LLM should be properly documented in the Methods section (and if a Methods section is not available, in a suitable alternative part) of the manuscript
Science [12,13]An AI program cannot be an author of a Science journal paper• Text generated from AI, machine learning, or similar algorithmic tools cannot be used in papers published in Science journals, nor can the accompanying figures, images, or graphics be the products of such tools, without explicit permission from the editors
JAMA [14,15]Nonhuman AI, language models, machine learning, or similar technologies do not qualify for authorship. If these models or tools are used to create content or assist with writing or manuscript preparation, authors must take responsibility for the integrity of the content generated by these tools• The submission and publication of content/images created by AI, language models, machine learning, or similar technologies is discouraged, unless part of formal research design or methods, and is not permitted without clear description of the content that was created and the name of the model or tool, version and extension numbers, and manufacturer. Authors must take responsibility for the integrity of the content generated by these models and tools
• Authors should report the use of AI, language models, machine learning, or similar technologies to create content or assist with writing or editing of manuscripts in the Acknowledgment section or the Methods section if this is part of formal research design or methods. This should include a description of the content that was created or edited and the name of the language model or tool, version and extension numbers, and manufacturer*

AI, artificial intelligence; LLM, large language model; JAMA, Journal of the American Medical Association..

*This does not include basic tools for checking grammar, spelling, references, etc..



Science지의 편집 정책(editorial policies)에서도 인공지능 챗봇이 저자가 될 수 없다고 밝혔으며 이를 위반하는 것은 과학적 부정 행위에 해당한다고 명시하였다[12,13]. 또한, 인공지능, 기계 학습, 또는 유사한 알고리즘 도구를 활용하여 생성된 텍스트, 그림, 이미지, 그래픽은 편집자의 명시적인 허락이 없는 상태에서 Science지의 논문에 사용할 수 없다고 하였다.

Nature지와 Science지 모두 생성형 인공지능을 저자로 인정하지 않았지만 활용에 대해서는 두 저널의 입장이 약간 다르다. Nature지는 인공지능 도구를 사용한 경우 ‘연구 방법’ 또는 ‘감사의 글’ 항목 등에 그 내용을 기록하면 된다는 허용적인 입장이었던 반면, Science지는 ChatGPT나 다른 인공지능 도구를 이용해 생성한 문서, 제작한 그림, 이미지, 그래픽은 논문에 사용할 수 없다며 이 지침을 위반하는 것은 이미지를 변경하거나 기존 연구를 표절하는 것과 다를 바 없는 연구부정행위(scientific misconduct)에 해당한다고 밝힘으로써 인공지능 활용에 대해 극히 부정적인 입장을 표명했다.

미국의학협회저널네트워크(Journal of the American Medical Association, JAMA Network)는 인공지능 및 유사 기술들은 저자로 표시될 수 없고, 논문 작성에 활용된 경우 이로 인한 연구 진실성은 저자가 책임을 져야 한다는 입장을 밝혔고 주요 내용은 다음과 같다[14,15]. 첫째, 저자 책임(author responsibilities); 인간이 아닌 인공지능, 언어 모델, 기계 학습 또는 이들과 유사한 기술들은 저자로 표시될 수 있는 자격이 없다. 만약 이러한 도구가 콘텐츠를 생성하거나 논문 원고의 작성에 사용된다면 저자가 생성된 콘텐츠의 진실성에 대한 책임을 져야 한다. 만약, 내용이 공식적인 연구 설계 또는 연구 방법론의 일부라면 저자는 논문 원고의 작성이나 편집을 돕는 데 인공지능 기술이 사용되었다는 내용을 감사의 글 또는 연구 방법론에 보고해야 한다. 둘째, 재생된 자료(reproduced and recreated material), 이미지 진실성(image integrity); 공식적인 연구 설계나 방법론의 일부가 아닌 한, 인공지능 기술에 의해 생성된 콘텐츠의 투고와 출판은 권장되지 않으며 생성된 콘텐츠와 사용된 언어 모델 또는 도구의 이름, 버전 및 확장번호, 제조사에 의한 명확한 설명 없이는 동 콘텐츠의 투고와 출판이 허용되지 않는다. 저자는 이러한 모델과 도구에 의해 생성된 콘텐츠의 진실성에 대한 책임을 져야 한다.

논문을 리뷰하고 편집하는 과정에서 주의할 점

의학 저널의 리뷰어와 편집자는 생성형 인공지능 기술로 작성된 원고를 어떻게 구별해낼 수 있을지 고민을 하게 된다. 우선, 생성형 인공지능의 최신 발전 상황을 정확하게 이해하고 있어야 한다. 인공지능의 잠재력과 한계를 이해하기 위해 신뢰할 만한 글들을 읽고 학회에도 참석해보기를 권한다. 생성형 인공지능을 사용한 문장은 다음과 같은 몇 가지 방법을 이용하여 감별해낼 수 있다. (1) 이상한 언어 패턴 식별하기: 인공지능이 생성한 원고는 일관성이 없거나 예상치 못한 언어 패턴을 보이는 경우가 많다. 글쓰기 스타일, 문장 구성, 어휘의 급격한 변화가 없는지 주의해서 검토해야 한다. (2) 표절 검출 도구(plagiarism-detection tool) 사용하기: 다양한 표절 검출 소프트웨어가 출시되어 있어 과거에 출판된 문장이 표절되었는지 식별할 수 있다. 생성형 인공지능에 의해 작성된 문장은 다양한 출처의 비슷한 내용을 포함할 수 있다. (3) 참조 및 인용문을 철저히 검토하기: 제공된 참조 및 인용문을 철저히 검토해야 한다. 인공지능이 생성한 문장은 전혀 관련이 없는 문헌을 인용하여 일관성이 없을 수 있다. (4) 그림과 표 검토하기: 그림과 표에 제시된 데이터가 정확한지 확인해야 한다. 인공지능이 생성한 원고는 연구의 목적과 부합하지 않는 데이터를 포함할 수 있다. (5) 저자 확인: 교신 저자, 공동 저자의 소속, 이메일 주소, 이전 출판물을 확인해야 한다.

CONCLUSION

대부분의 의학/과학학술지 편집인위원회와 권위 있는 국제 저널은 인공지능 도구를 저자로 인정하지 않고 있으며, 윤리적·법률적 측면을 고려하여 인간만이 저자로 표시될 수 있다고 명시하였다. 인공지능은 연구 결과에 책임을 질 수 없기 때문에 데이터의 투명성, 신뢰성이 보장되지 않는다는 것이 그 이유다. 인공지능 알고리즘은 왜 그러한 연구 결과를 제시하는지 설명하기 어려운 ‘black box’ 성격이 있어 해석에 주의를 요한다. 인공지능 알고리즘의 타당성이 보장될 때 비로소 연구 결과를 신뢰할 수 있기 때문에 저자가 논문 작업에서 인공지능 도구를 어떻게 사용했는지 공개하고 상세히 설명할 수 있어야 한다. 생성형 인공지능의 도움을 받아 작성한 논문도 데이터의 정확성, 윤리적 기준을 모두 충족해야 한다는 점을 잊지 말아야 한다.

FUNDING

None.

CONFLICTS OF INTEREST

No potential conflict of interest relevant to this article was reported.

AUTHOR’S CONTRIBUTIONS

Conceptualization: Dong Woo Shin, Sung-Hoon Moon. Formal analysis: Dong Woo Shin. Supervision: Dong Woo Shin, Sung-Hoon Moon. Writing—original draft: Dong Woo Shin. Writing—review & editing: Dong Woo Shin, Sung-Hoon Moon.

Fig 1.

Figure 1.ChatGPT listed as author on research paper.
Journal of Digestive Cancer Research 2024; 12: 38-43https://doi.org/10.52927/jdcr.2024.12.1.38

Table 1 . Policy on the Use of Generative Artificial Intelligence by the Organization of Medical Journal Editors.

Guidelines for AI authorshipAdditional guidelines for authors, reviewers, and editors
ICMJE [5]Chatbots (such as ChatGPT) should not be listed as authors because they cannot be responsible for the accuracy, integrity, and originality of the work, and these responsibilities are required for authorship. Authors should not list AI and AI-assisted technologies nor cite AI as an author• At submission, the journal should require authors to disclose whether they used AI-assisted technologies (such as LLMs, chatbots, or image creators) in the production of submitted work
• Authors who use such technology should describe, in both the cover letter and the submitted work, how they used it
• Humans are responsible for any submitted material that included the use of AI assisted technologies
• Authors should carefully review and edit the result because AI can generate authoritative-sounding output that can be incorrect, incomplete, or biased
• Authors should be able to assert that there is no plagiarism in their paper, including in text and images produced by the AI
• Humans must ensure there is appropriate attribution of all quoted material, including full citations
WAME [6]Chatbots cannot be authors• Authors should be transparent when chatbots are used and provide information about how they were used
• Authors are responsible for material provided by a chatbot in their paper (including the accuracy of what is presented and the absence of plagiarism) and for appropriate attribution of all sources (including original sources for material generated by the chatbot)
• Editors and peer reviewers should specify, to authors and each other, any use of chatbots in the evaluation of the manuscript and generation of reviews and correspondence. If they use chatbots in their communications with authors and each other, they should explain how they were used
• Editors need appropriate tools to help them detect content generated or altered by AI. Such tools should be made available to editors regardless of ability to pay for them, for the good of science and the public, and to help ensure the integrity of healthcare information and reducing the risk of adverse health outcomes
COPE [7]COPE joins organizations, such as WAME and the JAMA Network among others, to state that AI tools cannot be listed as an author of a paper• Authors who use AI tools in the writing of a manuscript, production of images or graphical elements of the paper, or in the collection and analysis of data, must be transparent in disclosing in the Materials and Methods (or similar section) of the paper how the AI tool was used and which tool was used. Authors are fully responsible for the content of their manuscript, even those parts produced by an AI tool, and are thus liable for any breach of publication ethics

AI, artificial intelligence; LLM, large language model; ICMJE, International Committee of Medical Journal Editors; WAME, World Association of Medical Editors; COPE, Committee on Publication Ethics; JAMA, Journal of the American Medical Association..


Table 2 . Editorial Policy on the Use of Generative Artificial Intelligence in International Journals.

Guidelines for AI authorshipAdditional guidelines for authors, reviewers, and editors
Nature [9-11]LLMs, such as ChatGPT, do not currently satisfy our authorship criteria• Use of an LLM should be properly documented in the Methods section (and if a Methods section is not available, in a suitable alternative part) of the manuscript
Science [12,13]An AI program cannot be an author of a Science journal paper• Text generated from AI, machine learning, or similar algorithmic tools cannot be used in papers published in Science journals, nor can the accompanying figures, images, or graphics be the products of such tools, without explicit permission from the editors
JAMA [14,15]Nonhuman AI, language models, machine learning, or similar technologies do not qualify for authorship. If these models or tools are used to create content or assist with writing or manuscript preparation, authors must take responsibility for the integrity of the content generated by these tools• The submission and publication of content/images created by AI, language models, machine learning, or similar technologies is discouraged, unless part of formal research design or methods, and is not permitted without clear description of the content that was created and the name of the model or tool, version and extension numbers, and manufacturer. Authors must take responsibility for the integrity of the content generated by these models and tools
• Authors should report the use of AI, language models, machine learning, or similar technologies to create content or assist with writing or editing of manuscripts in the Acknowledgment section or the Methods section if this is part of formal research design or methods. This should include a description of the content that was created or edited and the name of the language model or tool, version and extension numbers, and manufacturer*

AI, artificial intelligence; LLM, large language model; JAMA, Journal of the American Medical Association..

*This does not include basic tools for checking grammar, spelling, references, etc..


References

  1. O'Connor S. Open artificial intelligence platforms in nursing education: tools for academic progress or abuse? Nurse Educ Pract 2023;66:67.103537. Erratum in: Nurse Educ Pract 2023;67:103572. https://doi.org/10.1016/j.nepr.2022.103537.
    Pubmed CrossRef
  2. Donker T. The dangers of using large language models for peer review. Lancet Infect Dis 2023;23:781. https://doi.org/10.1016/S1473-3099(23)00290-6.
    Pubmed CrossRef
  3. Garcia MB. Using AI tools in writing peer review reports: should academic journals embrace the use of ChatGPT? Ann Biomed Eng 2024;52:139-140. https://doi.org/10.1007/s10439-023-03299-7.
    Pubmed CrossRef
  4. Li H, Moon JT, Purkayastha S, Celi LA, Trivedi H, Gichoya JW. Ethics of large language models in medicine and medical research. Lancet Digit Health 2023;5:e333-e335. https://doi.org/10.1016/S2589-7500(23)00083-3.
    Pubmed CrossRef
  5. International Committee of Medical Journal Editors (ICMJE). Recommendations for the conduct, reporting, editing, and publication of scholarly work in medical journals. ; 2024 [accessed March 1, 2024]. https://www.icmje.org/recommendations/.
  6. Zielinski C, Winker MA, Aggarwal R, et al. Chatbots, generative AI, and scholarly manuscripts. WAME recommendations on chatbots and generative artificial intelligence in relation to scholarly publications. ; 2023 [accessed March 1, 2024]. https://www.wame.org/page2.php?id=106.
    Pubmed CrossRef
  7. Committee on Publication Ethics (COPE). Principles of transparency and best practice in scholarly publishing. ; 2022 [accessed March 1, 2024]. https://publicationethics.org/resources/guidelines/principles-transparency-and-best-practice-scholarly-publishing.
  8. Council of Science Editors (CSE). Recommendations for promoting integrity in scientific journal publications. ; 2024 [accessed March 1, 2024]. https://www.councilscienceeditors.org/recommendations-for-promoting-integrity-in-scientific-journal-publications.
  9. Stokel-Walker C. ChatGPT listed as author on research papers: many scientists disapprove. Nature 2023;613:620-621. https://doi.org/10.1038/d41586-023-00107-z.
    Pubmed CrossRef
  10. Tools such as ChatGPT threaten transparent science; here are our ground rules for their use. Nature 2023;613:612. https://doi.org/10.1038/d41586-023-00191-1.
    Pubmed CrossRef
  11. Nature. For authors: initial submission. [accessed March 1, 2024]. https://www.nature.com/nature/for-authors/initial-submission.
  12. Thorp HH, Vinson V. Change to policy on the use of generative AI and large language models. ; 2023 [accessed March 1, 2024]. https://www.science.org/content/blog-post/change-policy-use-generative-ai-and-large-language-models.
  13. American Association for the Advancement of Science. Science journals: editorial policies. [accessed March 1, 2024]. https://www.science.org/content/page/science-journals-editorial-policies.
  14. Flanagin A, Bibbins-Domingo K, Berkwits M, Christiansen SL. Nonhuman "authors" and implications for the integrity of scientific publication and medical knowledge. JAMA 2023;329:637-639. https://doi.org/10.1001/jama.2023.1344.
    Pubmed CrossRef
  15. JAMA. Instructions for authors. [accessed March 1, 2024]. https://jamanetwork.com/journals/jama/pages/instructions-for-authors.

Journal Info

JDCR
Vol.12 No.2
August 20, 2024
eISSN : 2950-9505
pISSN : 2950-9394
Frequency: Triannual

open access

Article Tools

Stats or Metrics

Share this article on

  • line

Journal of Digestive Cancer Research

eISSN 2950-9505
pISSN 2950-9394

  • 2021
  • 2022
  • 2023
  • 2024