ChatGPTを使って英語論文を読む

| Topic path: Top / ChatGPTを使って英語論文を読む

*はじめに [#hc4865c6]

ここでは、大学生・大学院生が英語の論文を ChatGPT を用いて翻訳しながら読む方法について説明します。


*英語論文を読むときのポイント [#x10f7643]
**翻訳された文だけを読まない [#dabc00ad]
出力された日本語の訳文が正しいとは限りません。
必ず、英語の原文と一緒に出力し、英語の原文を確認してから日本語の訳文を読むようにします。

**要約・省略しない [#vd99b99a]
全体像を掴むために ChatGPT に要約させることは問題ありませんが、要約したものを読んで論文を理解したつもりになってはいけません。
論文を理解するのに必要な部分を ChatGPT が省略してしまうかもしれません。

**一度に多くの文を翻訳しない [#ja1e760c]
一度の多くの文を出力すると、丁寧に読まなくなってしまいます。
一段落ずつ出力し、きちんと理解してから次の段落に進みましょう。

**対話する [#j14419ce]
出力された訳文にわからないことがあれば、その都度 ChatGPT に質問しましょう。


*良いプロンプトの作成方法 [#h20d15d2]
[[Best practices for prompt engineering with the OpenAI API:https://help.openai.com/en/articles/6654000-best-practices-for-prompt-engineering-with-the-openai-api]] に基づいて説明します。

**1. 最新モデルを使用する [#gac28a97]
3.5 より 4、4 より 4o の方がいい結果になります。

**2. プロンプトの最初に指示を書く [#zbb26023]
ChatGPTへの指示はプロンプトの最初に書きます。
同じプロンプトで処理させる文章を与えるときは、### または """ で指示と処理させる文章を分けます。

**3. できる限り細かく指示する [#ie3f7bbe]
文脈、結果、長さ、形式、スタイルなどについて、できる限り具体的に指示すると、それに合わせた出力をしてくれます。

**4. 具体的な例を挙げる [#mddf8f0b]
出力してほしいものの形式について、具体的な例を与えると、その例に倣って出力してくれます。

**5. うまくいかないときはチューニングする [#vc503969]
手がかりを何も与えないで出力させてうまくいかないときは、簡単な例題を与えてチューニングしてから、目的のものを出力させます。

**6. 曖昧な形容詞を使わずに、数字を用いて明確に指示する [#f584fad6]
例えば、「短い文で出力する」という指示ではどのくらいの長さで出力したらいいのかChatGPTにはわかりません。
「50字以内の文で出力する」というように数字を用いて明確に指示します。

**7. してはいけないことだけでなく、すべきことを指示する [#v99fe010]
してはいけないことだけを指示しても、何をしたらいいのかChatGPTにはわかりません。
その代わりに何をすべきかを指示すると、その指示に従ってくれます。

**8. 最初の書き出しを与える(プログラミングの場合) [#qbd5bb48]
ChatGPTはその後に続く文を生成するのが得意なので、プログラムの最初の部分を与えてあげると、その続きを作成しやすくなります。





*プロンプトの例(医学) [#we435ab6]

私:
 あなたは救急救命及び集中治療分野を専門とする医師です。
 
 今回の目的は、cardiac arrest に関する英語の論文を、日本人の大学生が理解できるように、
 わかりやすく、丁寧に、日本語で説明することです。
 
 PubMedのURLを示しますので、その論文のTitleとAbstractを日本語に翻訳してください。
 
 ただし、以下の条件を満たさなければなりません。
 ・1文ごとに表の行を作成する
 ・英語の原文と日本語の訳文を表形式で並べて出力する
 ・「である」調で出力する
 ・原文にある文を省略しない
 ・原文にある英単語を省略しない
 ・意味が不明な箇所がある場合は()付きでそのことを示す
 ・正確に翻訳できないときにも()付きでそのことを示す

ChatGPT:
 もちろん、指定された論文のTitleとAbstractを表形式で翻訳いたしますので、該当するPubMedのURLを教えてください。

私:
 https://pubmed.ncbi.nlm.nih.gov/31577396/

ChatGPT:
 Here is the translation of the title and abstract from the specified PubMed article:
|English|Japanese|h
|Title||
|Targeted Temperature Management for Cardiac Arrest with Nonshockable Rhythm|ショック不能リズムによる心停止に対する標的温度管理|
|Abstract||
| Background: The benefit of targeted temperature management in patients with cardiac arrest and a nonshockable rhythm is uncertain. | 背景: ショック不能リズムを伴う心停止患者における標的温度管理の有益性は不確かである。|
|Methods: We conducted a multicenter, randomized, controlled trial in which adults with coma who had been successfully resuscitated after cardiac arrest with a nonshockable rhythm were assigned to undergo targeted hypothermia at 33°C or targeted normothermia.|方法: ショック不能リズムで心停止後に蘇生が成功した昏睡状態の成人を対象に、標的低体温 (33°C) または標的正常体温に割り当てる多施設ランダム化比較試験を実施した。|
|The primary outcome was survival with a favorable neurologic outcome 90 days after cardiac arrest.|主要なアウトカムは心停止から90日後の良好な神経学的転帰を伴う生存であった。|
|Results: A total of 584 patients were included in the trial.|結果: 試験には合計584人の患者が含まれた。|
|At 90 days, 10.2% of the patients in the hypothermia group and 5.7% in the normothermia group were alive with a favorable neurologic outcome.|90日後、低体温群では10.2%、正常体温群では5.7%の患者が良好な神経学的転帰で生存していた。|
|The difference was not significant.|その差は有意ではなかった。|
|Mortality was similar in the two groups.|両群の死亡率は同様であった。|
|Conclusions: In patients with coma who have been resuscitated after cardiac arrest with a nonshockable rhythm, targeted hypothermia at 33°C did not confer a benefit in terms of survival with a favorable neurologic outcome at 90 days.|結論: ショック不能リズムで心停止後に蘇生された昏睡状態の患者において、33°Cの標的低体温は、90日後の良好な神経学的転帰を伴う生存に関して利益をもたらさなかった。|

*プロンプトの例(計算機科学) [#we435ab6]
私:
 あなたは人工知能 (AI) を専門とする計算機科学分野の研究者です。
 
 今回の目的は、深層学習に関する英語の論文を、日本人の大学生が理解できるように、
 わかりやすく、丁寧に、日本語で説明することです。
 
 論文のPDFファイルを添付しますので、その論文を翻訳してください。
 
 ただし、以下の条件を満たさなければなりません。
 ・最初に、タイトルを翻訳し、次にアブストラクトを翻訳し、その後1段落ずつ翻訳する
 (次の段落を翻訳する指示するまでは翻訳しない)
 ・英語の原文と日本語の訳文を表形式で並べて出力する
 ・文ごとに行を作成する
 ・「である」調で出力する
 ・原文にある文を省略しない
 ・原文にある英単語を省略しない
 ・数式は翻訳せずにそのまま出力する
 ・図表は本文中に出現した章または節の後にキャプションのみを翻訳する
 ・注釈は本文中に出現した章または節の後に翻訳する
 ・意味が不明な箇所がある場合は()付きでそのことを示す
 ・正確に翻訳できないときにも()付きでそのことを示す

ChatGPT:
 もちろん、深層学習に関する論文を翻訳するお手伝いをいたします。
 PDFファイルを添付していただければ、翻訳を開始しますので、まずはタイトルとアブストラクトを翻訳いたします。
 ファイルのアップロードをお願いいたします。

私:
  NIPS-2017-attention-is-all-you-need-Paper.pdf

ChatGPT:
 ファイルを確認しました。論文のタイトルとアブストラクトの翻訳から始めます。

|English|Japanese|h
|Title|タイトル|
|Attention Is All You Need|注意機構こそが必要である|
|Abstract|アブストラクト|
|The dominant sequence transduction models are based on complex recurrent or convolutional neural networks that include an encoder and a decoder.|支配的なシーケンス変換モデルは、エンコーダとデコーダを含む複雑なリカレントまたは畳み込みニューラルネットワークに基づいている。|
|The best performing models also connect the encoder and decoder through an attention mechanism.|最も性能の良いモデルは、エンコーダとデコーダを注意機構を介して接続している。|
|We propose a new simple network architecture, the Transformer, based solely on attention mechanisms, dispensing with recurrence and convolutions entirely.|我々は、新しいシンプルなネットワークアーキテクチャであるTransformerを提案する。これは完全に注意機構のみに基づいており、リカレントと畳み込みを完全に排除している。|
|Experiments on two machine translation tasks show these models to be superior in quality while being more parallelizable and requiring significantly less time to train.|二つの機械翻訳タスクにおける実験は、これらのモデルが品質において優れており、より並列化が可能であり、訓練に必要な時間が大幅に短いことを示している。|
|Our model achieves 28.4 BLEU on the WMT 2014 English-to-German translation task, improving over the existing best results, including ensembles, by over 2 BLEU.|我々のモデルは、WMT 2014英独翻訳タスクで28.4 BLEUを達成し、既存の最良結果(アンサンブルを含む)を2 BLEU以上改善した。|
|On the WMT 2014 English-to-French translation task, our model establishes a new single-model state-of-the-art BLEU score of 41.0 after training for 3.5 days on eight GPUs, a small fraction of the training costs of the best models from the literature.|WMT 2014英仏翻訳タスクでは、我々のモデルは8 GPUで3.5日間の訓練後、単一モデルとして新たな最先端BLEUスコア41.0を樹立し、文献中の最良モデルの訓練コストのわずかな部分である。|
 次の段落の翻訳をご希望の場合は、お知らせください。

私:
 BLEU とは何ですか?

ChatGPT:
 BLEU(Bilingual Evaluation Understudy)は、機械翻訳の精度を評価するための自動指標である。
 これは、翻訳モデルが生成したテキストと人間が作成した参照翻訳との一致度を測定するものである。
 BLEUスコアは0から1の範囲で表され、一般的にはパーセンテージとして表示される(例:0.25は25と表示される)。
 スコアが高いほど、モデルの翻訳が参照とよく一致していることを示している。
 
 具体的には、BLEUはn-gram(連続した単語列)の一致度を基に計算される。
 1-gramから4-gramまでの一致を考慮し、モデルの翻訳におけるこれらのn-gramが
 参照翻訳にどの程度含まれているかを評価する。
 また、過学習(特定の短いフレーズの繰り返し)を防ぐために、ペナルティ項も含まれている。
 
 BLEUは広く使われているが、文法的な正しさや文脈の理解を評価することはできないため、
 他の評価指標と併用されることが多い。
トップ   編集 差分 バックアップ 添付 複製 名前変更 リロード   新規 一覧 単語検索 最終更新   ヘルプ   最終更新のRSS