ভাষা নির্বাচন করুন

জেনারেটিভ অ্যাডভারসারিয়াল নেটওয়ার্ক (GAN) ব্যবহার করে ফুসফুসের চিত্র বিভাজন: একটি প্রযুক্তিগত বিশ্লেষণ

চিকিৎসা চিত্রণে GAN-ভিত্তিক ফুসফুস চিত্র বিভাজন পদ্ধতির পদ্ধতি, প্রযুক্তিগত অবদান, পরীক্ষামূলক ফলাফল এবং ভবিষ্যত প্রয়োগের বিশ্লেষণ।
strongpassword.org | PDF Size: 0.3 MB
রেটিং: 4.5/5
আপনার রেটিং
আপনি ইতিমধ্যে এই ডকুমেন্ট রেট করেছেন
PDF ডকুমেন্ট কভার - জেনারেটিভ অ্যাডভারসারিয়াল নেটওয়ার্ক (GAN) ব্যবহার করে ফুসফুসের চিত্র বিভাজন: একটি প্রযুক্তিগত বিশ্লেষণ

1. ভূমিকা

ফুসফুসের চিত্র বিভাজন হল ফুসফুস ক্যান্সার, COPD এবং COVID-19-এর মতো ফুসফুসের রোগের জন্য কম্পিউটার-সহায়িত রোগ নির্ণয় (CAD) ব্যবস্থাগুলির একটি অত্যন্ত গুরুত্বপূর্ণ প্রাক-প্রক্রিয়াকরণ ধাপ। সিটি বা এক্স-রে চিত্র থেকে ফুসফুসের ক্ষেত্র এবং ফুসফুসের নডিউলগুলির সঠিক বিভাজন পরিমাণগত বিশ্লেষণ, রোগ পর্যবেক্ষণ এবং চিকিৎসা পরিকল্পনার জন্য অপরিহার্য। থ্রেশহোল্ডিং, রিজিয়ন-গ্রোয়িং এবং লেভেল সেটের মতো ঐতিহ্যগত বিভাজন পদ্ধতিগুলি প্রায়শই চিকিৎসা চিত্রের অন্তর্নিহিত চ্যালেঞ্জগুলির সাথে সংগ্রাম করে: শব্দ, কম কনট্রাস্ট এবং শারীরস্থানিক পরিবর্তনশীলতা।

এই গবেষণাপত্রটি জেনারেটিভ অ্যাডভারসারিয়াল নেটওয়ার্ক (GAN) ব্যবহার করে বিভাজন কাজটিকে একটি চিত্র-থেকে-চিত্র অনুবাদের সমস্যা হিসেবে উপস্থাপন করে একটি নতুন পদ্ধতি প্রস্তাব করে। বিশেষভাবে, এটি একটি কাঁচা ফুসফুস চিত্রকে তার সংশ্লিষ্ট বিভাজিত মাস্কে অনুবাদ করতে Pix2Pix স্থাপত্যকে কাজে লাগায়। পিক্সেল-ভিত্তিক শ্রেণীবিভাগ থেকে শর্তাধীন চিত্র উৎপাদনের এই দৃষ্টান্ত পরিবর্তনের লক্ষ্য আরও সুসংগত এবং বিস্তারিত বিভাজন ফলাফল তৈরি করা, বিশেষত ছোট বা লুকানো নডিউলের মতো চ্যালেঞ্জিং ক্ষেত্রে।

2. পদ্ধতি

মূল পদ্ধতিতে একটি ইনপুট ফুসফুস চিত্র থেকে একটি আউটপুট বিভাজন মানচিত্রে ম্যাপিং শেখার জন্য একটি শর্তাধীন GAN কাঠামো ব্যবহার করা জড়িত।

2.1 জেনারেটিভ অ্যাডভারসারিয়াল নেটওয়ার্ক (GAN)

একটি GAN দুটি নিউরাল নেটওয়ার্ক নিয়ে গঠিত, জেনারেটর ($G$) এবং ডিসক্রিমিনেটর ($D$), যেগুলো একটি মিনিম্যাক্স গেমে একই সাথে প্রশিক্ষিত হয়। জেনারেটর একটি শব্দ ভেক্টর থেকে বা, শর্তাধীন GAN-এ, একটি ইনপুট চিত্র থেকে বাস্তবসম্মত ডেটা নমুনা তৈরি করতে শেখে। ডিসক্রিমিনেটর আসল নমুনা (গ্রাউন্ড ট্রুথ বিভাজন মাস্ক) এবং নকল নমুনা (উৎপাদিত মাস্ক) এর মধ্যে পার্থক্য করতে শেখে। একটি আদর্শ GAN-এর উদ্দেশ্য ফাংশন হল:

$\min_G \max_D V(D, G) = \mathbb{E}_{x \sim p_{data}(x)}[\log D(x)] + \mathbb{E}_{z \sim p_z(z)}[\log(1 - D(G(z)))]$

যেখানে $x$ হল বাস্তব ডেটা এবং $z$ হল ইনপুট শব্দ। শর্তাধীন সেটিং-এ (cGAN), $G$ এবং $D$ উভয়ই অতিরিক্ত তথ্য পায়, যেমন ইনপুট চিত্র।

2.2 চিত্র অনুবাদের জন্য Pix2Pix

গবেষণাপত্রটি Pix2Pix মডেল ব্যবহার করে, যা Isola et al. (2017) দ্বারা প্রবর্তিত একটি মৌলিক cGAN স্থাপত্য। Pix2Pix সঠিক লোকালাইজেশনের জন্য একটি U-Net ভিত্তিক জেনারেটর এবং একটি PatchGAN ডিসক্রিমিনেটর ব্যবহার করে যা স্থানীয় চিত্র প্যাচগুলিকে আসল বা নকল হিসেবে শ্রেণীবদ্ধ করে, উচ্চ-ফ্রিকোয়েন্সি বিশদকে উৎসাহিত করে। ক্ষতি ফাংশনটি আদর্শ GAN অ্যাডভারসারিয়াল লসকে একটি L1 পুনর্গঠন লসের সাথে একত্রিত করে:

$\mathcal{L}_{cGAN}(G, D) = \mathbb{E}_{x,y}[\log D(x, y)] + \mathbb{E}_{x,z}[\log(1 - D(x, G(x, z)))]$

$\mathcal{L}_{L1}(G) = \mathbb{E}_{x,y,z}[\|y - G(x, z)\|_1]$

$G^* = \arg \min_G \max_D \mathcal{L}_{cGAN}(G, D) + \lambda \mathcal{L}_{L1}(G)$

এখানে, $x$ হল ইনপুট ফুসফুস চিত্র, $y$ হল লক্ষ্য বিভাজন মাস্ক, $z$ হল শব্দ, এবং $\lambda$ L1 লসের ওজন নিয়ন্ত্রণ করে।

2.3 ফুসফুস চিত্র বিভাজনে প্রয়োগ

এই প্রসঙ্গে, ইনপুট $x$ হল মূল গ্রেস্কেল ফুসফুস সিটি স্লাইস। লক্ষ্য $y$ হল বাইনারি মাস্ক যেখানে ফুসফুসের প্যারেনকাইমা (এবং সম্ভাব্য নডিউল) এর অন্তর্গত পিক্সেলগুলি চিহ্নিত করা থাকে। জেনারেটর $G$ ম্যাপিং $G: x \rightarrow y$ শেখে। অ্যাডভারসারিয়াল প্রশিক্ষণ $G$ কে শুধুমাত্র পিক্সেল-ভিত্তিক নির্ভুল (L1 লসের মাধ্যমে) নয়, বরং গঠনগতভাবে বিশ্বাসযোগ্য এবং আসল মাস্ক থেকে আলাদা করা যায় না (ডিসক্রিমিনেটরের মাধ্যমে) এমন মাস্ক তৈরি করতে বাধ্য করে।

3. প্রযুক্তিগত বিবরণ ও গাণিতিক কাঠামো

সাফল্য নির্ভর করে U-Net জেনারেটরের স্কিপ সংযোগ সহ এর এনকোডার-ডিকোডার কাঠামোর মাধ্যমে প্রসঙ্গ এবং সঠিক লোকালাইজেশন ক্যাপচার করার ক্ষমতার উপর। PatchGAN ডিসক্রিমিনেটরের স্থানীয় টেক্সচারের উপর ফোকাস জেনারেটরকে একটি খাঁটি L1/L2 লসের সাথে সাধারণত দেখা যায় এমন অস্পষ্ট ফলাফল তৈরি করা থেকে বিরত রাখে। সম্মিলিত ক্ষতি ফাংশনটি গুরুত্বপূর্ণ:

  • অ্যাডভারসারিয়াল লস ($\mathcal{L}_{cGAN}$): উৎপাদিত মাস্কের বিশ্বব্যাপী গঠনগত বাস্তবতা নিশ্চিত করে।
  • L1 লস ($\mathcal{L}_{L1}$): নিম্ন-ফ্রিকোয়েন্সি সঠিকতা প্রয়োগ করে, নিশ্চিত করে যে মাস্কটি পিক্সেল স্তরে গ্রাউন্ড ট্রুথের সাথে সারিবদ্ধ।

প্রশিক্ষণ প্রক্রিয়াটি স্বভাবতই অস্থির, হাইপারপ্যারামিটার, ব্যাচ নরমালাইজেশন এবং মোড কোল্যাপস প্রতিরোধের জন্য ইনস্ট্যান্স নরমালাইজেশনের মতো কৌশলগুলির সতর্ক টিউনিং প্রয়োজন।

4. পরীক্ষামূলক ফলাফল ও বিশ্লেষণ

গবেষণাপত্রটি একটি বাস্তব ফুসফুস চিত্র ডেটাসেটে প্রস্তাবিত Pix2Pix-ভিত্তিক পদ্ধতি পরীক্ষার কথা জানায়। যদিও নির্দিষ্ট ডেটাসেটের বিবরণ (যেমন, LIDC-IDRI, LUNA16) এবং পরিমাণগত মেট্রিক্স (যেমন, ডাইস সহগ, জ্যাকার্ড সূচক, সংবেদনশীলতা) প্রদত্ত উদ্ধৃতিতে বিস্তারিতভাবে বর্ণনা করা হয়নি, লেখকরা দাবি করেন যে পদ্ধতিটি "কার্যকর এবং সর্বাধুনিক পদ্ধতিগুলিকে ছাড়িয়ে গেছে"

অন্তর্নিহিত ফলাফল ও চার্ট বর্ণনা: এই ধরনের কাজের জন্য একটি সাধারণ ফলাফল বিভাগে অন্তর্ভুক্ত থাকবে:

  • গুণগত তুলনা: ইনপুট সিটি স্লাইস, গ্রাউন্ড ট্রুথ মাস্ক এবং প্রস্তাবিত GAN পদ্ধতি বনাম বেঞ্চমার্ক (যেমন, U-Net, FCN) থেকে ভবিষ্যদ্বাণীর পাশাপাশি ভিজ্যুয়ালাইজেশন। GAN আউটপুট সম্ভাব্য অস্পষ্ট সিএনএন আউটপুটের তুলনায় ফুসফুস লবের চারপাশে তীক্ষ্ণ সীমানা এবং ছোট নডিউল কনট্যুরের আরও ভাল ক্যাপচার দেখাবে বলে আশা করা যায়।
  • পরিমাণগত মেট্রিক্স টেবিল: বিভিন্ন পদ্ধতির মধ্যে ডাইস স্কোর, প্রিসিশন, রিকল এবং হসডর্ফ দূরত্ব তুলনা করে একটি টেবিল। GAN-ভিত্তিক পদ্ধতিটি সম্ভবত টেবিলে নেতৃত্ব দেবে, বিশেষত সীমানার নির্ভুলতার প্রতি সংবেদনশীল মেট্রিক্সে।
  • ব্যর্থতা কেস বিশ্লেষণ: সীমাবদ্ধতার আলোচনা, যেমন গুরুতর রোগবিদ্যা (বড় কনসোলিডেশন) বা চরম শব্দযুক্ত চিত্রগুলিতে কর্মক্ষমতা হ্রাস, যেখানে জেনারেটর ভুল কাঠামো কল্পনা করতে পারে।

5. বিশ্লেষণ কাঠামো: মূল অন্তর্দৃষ্টি ও সমালোচনা

মূল অন্তর্দৃষ্টি: এই গবেষণাপত্রের মৌলিক প্রস্তাবনা সাহসী কিন্তু যৌক্তিক: চিকিৎসা চিত্র বিভাজনকে একটি শ্রেণীবিভাগের কাজ হিসাবে নয়, বরং একটি স্টাইল ট্রান্সফার সমস্যা হিসাবে বিবেচনা করুন। আসল অন্তর্দৃষ্টি শুধু একটি GAN ব্যবহার করা নয়, বরং এটি স্বীকার করা যে একটি উচ্চ-মানের বিভাজন মাস্ক হল মূল চিত্রের একটি "স্টাইলাইজড" সংস্করণ যেখানে "স্টাইল" হল শারীরস্থানিক সত্য। এই পুনঃকাঠামো মডেলটিকে ডেটা থেকে শেখা শক্তিশালী চিত্র সংশ্লেষণ পূর্বানুমানগুলিকে কাজে লাগাতে দেয়, সম্ভাব্যভাবে সীমানার মসৃণতা বা সংযোগের জন্য হাতে তৈরি ক্ষতি ফাংশনের প্রয়োজনীয়তা এড়িয়ে যায়।

যৌক্তিক প্রবাহ: যুক্তিটি সুসংগত। 1) ঐতিহ্যগত এবং গভীর শিক্ষণ পদ্ধতিগুলির (U-Net) পরিচিত ত্রুটি রয়েছে (অস্পষ্ট সীমানা, সূক্ষ্ম বৈশিষ্ট্যগুলিতে দুর্বল কর্মক্ষমতা)। 2) GAN, বিশেষত Pix2Pix, কাঠামোগত আউটপুট স্পেস শেখা এবং সূক্ষ্ম বিবরণ সংরক্ষণে দক্ষ। 3) অতএব, Pix2Pix কে ফুসফুস চিত্রে প্রয়োগ করা উচিত উচ্চতর বিভাজন দিতে, বিশেষত চ্যালেঞ্জিং ছোট নডিউলের জন্য। যুক্তিটি শব্দ, যদিও এটি ধরে নেয় যে অ্যাডভারসারিয়াল প্রশিক্ষণের সুবিধাগুলি এর জটিলতাকে ছাড়িয়ে যায়।

শক্তি ও ত্রুটি:
শক্তি: পদ্ধতিটি তাত্ত্বিকভাবে মার্জিত। অ্যাডভারসারিয়াল লস হল একটি শক্তিশালী শেখা সাদৃশ্য মেট্রিক যা জটিল, অ-স্থানীয় সম্পর্কগুলি পিক্সেল-ভিত্তিক ক্ষতির চেয়ে ভালভাবে ক্যাপচার করতে পারে। অস্পষ্ট ইনপুট সহও শারীরস্থানিকভাবে বিশ্বাসযোগ্য বিভাজন তৈরি করার উচ্চ সম্ভাবনা রয়েছে, যেমন "CycleGAN: Unpaired Image-to-Image Translation" (Zhu et al., 2017) এর মতো সম্পর্কিত কাজে উল্লেখ করা হয়েছে যা GAN-এর ডোমেন-অপরিবর্তনশীল বৈশিষ্ট্য শেখার ক্ষমতা দেখায়।
গুরুত্বপূর্ণ ত্রুটি: উপস্থাপিত গবেষণাপত্রটি গভীরতার অভাবের কারণে ভুগছে। সর্বাধুনিক পদ্ধতিগুলিকে ছাড়িয়ে যাওয়ার দাবিটি সাহসী কিন্তু এখানে নির্দিষ্ট মেট্রিক্স বা নামকৃত প্রতিযোগীদের দ্বারা সমর্থিত নয়। GAN প্রশিক্ষণ দেওয়া কুখ্যাতভাবে কঠিন এবং অস্থির—প্রচুর ডেটা, সতর্ক টিউনিং এবং গণনামূলক সম্পদের প্রয়োজন। মডেলের সিদ্ধান্ত গ্রহণের প্রক্রিয়াটি একটি "ব্ল্যাক বক্স", যা ক্লিনিকাল স্থাপনার জন্য উল্লেখযোগ্য উদ্বেগ তৈরি করে যেখানে ব্যাখ্যাযোগ্যতা সর্বোচ্চ গুরুত্বপূর্ণ। জেনারেটরের "ইনপেইন্টিং" করার ঝুঁকিও রয়েছে যা বিশ্বাসযোগ্য কিন্তু গুরুতর রোগবিদ্যার ক্ষেত্রে ভুল কাঠামো, যা জেনারেটিভ মডেলগুলির একটি পরিচিত সমস্যা।

কার্যকরী অন্তর্দৃষ্টি: গবেষকদের জন্য: এটিকে একটি প্লাগ-অ্যান্ড-প্লে সমাধান হিসাবে বিবেচনা করবেন না। Pix2Pix বেছে নেওয়ার পরেই আসল কাজ শুরু হয়। ফোকাস করুন:

  • হাইব্রিড লস: আরও স্থিতিশীল প্রশিক্ষণ এবং ভাল মেট্রিক অপ্টিমাইজেশনের জন্য টাস্ক-নির্দিষ্ট লস (যেমন, ডাইস লস) অ্যাডভারসারিয়াল লসের সাথে একীভূত করুন।
  • বৈধতা কঠোরতা: শুধুমাত্র পুরানো পদ্ধতির বিরুদ্ধে নয়, বরং nnU-Net (Isensee et al., 2021) এর মতো সমসাময়িক শক্তিশালী বেসলাইনের বিরুদ্ধে বেঞ্চমার্ক করুন, যা চিকিৎসা বিভাজনে বর্তমান ডি ফ্যাক্টো মান।
  • ব্যাখ্যাযোগ্যতা: Grad-CAM বা অ্যাটেনশন ম্যাপের মতো কৌশল প্রয়োগ করুন যাতে ব্যাখ্যা করা যায় যে ডিসক্রিমিনেটর কোন চিত্র অঞ্চলের উপর ফোকাস করে, বিশ্বাস গড়ে তোলে।
  • ক্লিনিকাল পাইলট: ডেটাসেট মেট্রিক্সের বাইরে রেডিওলজিস্টদের সাথে বাস্তব-বিশ্বের বৈধতার দিকে যান, সংরক্ষিত সময় এবং রোগ নির্ণয়ের সামঞ্জস্য পরিমাপ করুন।
অনুশীলনকারীদের জন্য: সতর্ক আশাবাদ নিয়ে এগিয়ে যান। কৌশলটি মোটা বিভাজন পরিশোধন বা নির্দিষ্ট চ্যালেঞ্জিং মডালিটি পরিচালনা করার মতো উপ-কাজগুলির জন্য আশাজনক, তবে এটি এখনও উৎপাদন পাইপলাইনে U-Net এর মতো শক্তিশালী, ব্যাখ্যাযোগ্য মডেলগুলির প্রতিস্থাপন নয়।

6. বিশ্লেষণ কাঠামোর উদাহরণ কেস

পরিস্থিতি: জাক্সটাপ্লুরাল নডিউল—ফুসফুসের প্রাচীরের সাথে সংযুক্ত নডিউলগুলির বিভাজনে GAN মডেলের কর্মক্ষমতা মূল্যায়ন করা, যা ঐতিহ্যগত অ্যালগরিদমগুলির জন্য পৃথক করা কুখ্যাতভাবে কঠিন।

কাঠামো প্রয়োগ:

  1. মূল অন্তর্দৃষ্টি: অ্যাডভারসারিয়াল ডিসক্রিমিনেটর শিখতে হবে যে একটি বাস্তবসম্মত ফুসফুস মাস্কের একটি মসৃণ, অবিচ্ছিন্ন প্লুরাল সীমানা রয়েছে। একটি বিভাজন যা ভুলভাবে একটি জাক্সটাপ্লুরাল নডিউল কেটে দেয় এই সীমানায় একটি অপ্রাকৃত অবতলতা তৈরি করে, যা ডিসক্রিমিনেটর "নকল" হিসাবে চিহ্নিত করতে পারে।
  2. যৌক্তিক প্রবাহ: ইনপুট: একটি সূক্ষ্ম প্রাচীর-সংযুক্ত নডিউল সহ সিটি স্লাইস। U-Net দুর্বল প্রান্ত গ্রেডিয়েন্টের কারণে এটি অবমূল্যায়ন করতে পারে। GAN-এর জেনারেটর, একটি "অ-শারীরস্থানিক" ফুসফুস কনট্যুর তৈরি করার জন্য ডিসক্রিমিনেটর দ্বারা শাস্তিপ্রাপ্ত, সীমানার মসৃণতা বজায় রাখতে নডিউল অন্তর্ভুক্ত করতে প্রণোদিত হয়।
  3. শক্তি ও ত্রুটি: শক্তি: এই নির্দিষ্ট নডিউলগুলির জন্য উচ্চতর সংবেদনশীলতার সম্ভাবনা। ত্রুটি: বিপরীত ত্রুটির ঝুঁকি—জেনারেটর "কল্পনা" করতে পারে এবং একটি আসল ফিসার বা খাঁজকে মসৃণ করে দিতে পারে, ভুলভাবে একটি নডিউলকে প্যারেনকাইমার সাথে সংযুক্ত করতে পারে।
  4. কার্যকরী অন্তর্দৃষ্টি: ত্রুটি প্রশমিত করতে, কেউ ডিসক্রিমিনেটরকে শুধুমাত্র মাস্কের উপর নয়, বরং ইনপুট চিত্রের এজ ম্যাপের উপরেও শর্তযুক্ত করতে পারে, "বাস্তবতা" নিম্ন-স্তরের চিত্র বৈশিষ্ট্যে ভিত্তি করে। মূল্যায়নে ফলাফলে একটি নির্দিষ্ট "জাক্সটাপ্লুরাল নডিউল উপসেট" বিশ্লেষণ অন্তর্ভুক্ত করতে হবে।

7. ভবিষ্যত প্রয়োগ ও গবেষণার দিকনির্দেশ

GAN-ভিত্তিক বিভাজন দৃষ্টান্ত বেশ কয়েকটি আশাজনক পথ খুলে দেয়:

  • মাল্টি-মডাল বিভাজন: বিভাজন করার সময় বিভিন্ন ইমেজিং মডালিটির মধ্যে (যেমন, সিটি থেকে পিইটি) অনুবাদ করার জন্য কাঠামো প্রসারিত করা, ভাগ করা শারীরস্থানিক বৈশিষ্ট্যগুলিকে কাজে লাগানো।
  • অনিরীক্ষিত ও আধা-নিরীক্ষিত শিক্ষণ: CycleGAN-এর মতো কাঠামো ব্যবহার করা যেখানে জোড়া চিত্র-মাস্ক ডেটা বিরল, কিন্তু লেবেলবিহীন চিত্র প্রচুর এমন পরিস্থিতিতে বিভাজনের জন্য।
  • 3D ভলিউমেট্রিক বিভাজন: 2D স্লাইস থেকে 3D ভলিউমে যাওয়া 3D Pix2Pix বা Vox2Vox এর মতো স্থাপত্য ব্যবহার করে, ফুসফুস লব এবং জাহাজের গাছের বিভাজনের জন্য গুরুত্বপূর্ণ স্থানিক প্রসঙ্গ ক্যাপচার করা।
  • যৌথ বিভাজন ও রোগ শ্রেণীবিভাগ: একটি একক শর্তাধীন GAN কে ফুসফুস বিভাজন এবং একটি ক্ষত সম্ভাব্যতা মানচিত্র তৈরি করতে প্রশিক্ষণ দেওয়া, যেমন "ডায়াগনস্টিক GAN" সম্পর্কিত সাম্প্রতিক কাজগুলিতে অন্বেষণ করা হয়েছে।
  • স্বাস্থ্যসেবার জন্য ফেডারেটেড লার্নিং: কাঁচা চিত্র ভাগ না করে বিকেন্দ্রীকৃত হাসপাতালের ডেটা থেকে শিখে রোগীর গোপনীয়তা রক্ষা করে GAN প্রশিক্ষণ প্রোটোকল তৈরি করা, যা চিকিৎসা AI-এর একটি বড় বাধা।
  • ডিফিউশন মডেলের সাথে একীকরণ: জেনারেটিভ মডেলের পরবর্তী প্রজন্ম, ডিফিউশন মডেল অন্বেষণ করা, যা আরও স্থিতিশীল প্রশিক্ষণ এবং বিস্তারিত শারীরস্থানিক বিভাজনের জন্য সম্ভাব্যভাবে উচ্চতর মানের আউটপুট অফার করে।

8. তথ্যসূত্র

  1. Goodfellow, I., et al. (2014). Generative Adversarial Nets. Advances in Neural Information Processing Systems (NeurIPS).
  2. Isola, P., Zhu, J.-Y., Zhou, T., & Efros, A. A. (2017). Image-to-Image Translation with Conditional Adversarial Networks. IEEE Conference on Computer Vision and Pattern Recognition (CVPR).
  3. Ronneberger, O., Fischer, P., & Brox, T. (2015). U-Net: Convolutional Networks for Biomedical Image Segmentation. International Conference on Medical Image Computing and Computer-Assisted Intervention (MICCAI).
  4. Zhu, J.-Y., Park, T., Isola, P., & Efros, A. A. (2017). Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks. IEEE International Conference on Computer Vision (ICCV).
  5. Isensee, F., Jaeger, P. F., Kohl, S. A., Petersen, J., & Maier-Hein, K. H. (2021). nnU-Net: a self-configuring method for deep learning-based biomedical image segmentation. Nature Methods.
  6. Litjens, G., et al. (2017). A survey on deep learning in medical image analysis. Medical Image Analysis.
  7. National Cancer Institute. The Cancer Imaging Archive (TCIA). https://www.cancerimagingarchive.net/ (Datasets like LIDC-IDRI).