روند تکامل مدل‌های رتبه‌بندی اعتباری: از ارزیابی‌های قضاوتی تا هوش مصنوعی در مدیریت ریسک مالی
مدل اعتبارسنجی

روند تکامل مدل‌های رتبه‌بندی اعتباری: از ارزیابی‌های قضاوتی تا هوش مصنوعی در مدیریت ریسک مالی

تکامل مدل‌های رتبه‌بندی اعتباری در صنعت بانکداری از روش‌های قضاوتی ذهنی به‌سمت تکنیک‌های پیچیده یادگیری ماشینی و هوش مصنوعی قابل توضیح (XAI) پیشرفت کرده است. در اوایل قرن بیستم، این مدل‌ها عمدتا بر اساس قضاوت شخصی مسئولان اعتباری بودند که اغلب به ناسازگاری‌ها و سوگیری‌ها منجر می‌شد. در دهه‌های بعد، معرفی روش‌های آماری مانند تحلیل ممیزی و رگرسیون و سپس استفاده از شبکه‌های عصبی و ماشین‌های بردار پشتیبان، تحولات مهمی در دقت و شفافیت ارزیابی‌های ریسک اعتباری ایجاد کرد. در دهه ۲۰۱۰، با ورود یادگیری عمیق و روش‌های ترکیبی، امکان تحلیل دقیق‌تر داده‌های غیرساختاریافته فراهم شد. ظهور XAI در دهه ۲۰۲۰ بر شفافیت و عدالت در ارزیابی‌های اعتباری تاکید می‌کند و استفاده از مدل‌های ترکیبی و داده‌های جایگزین، آینده‌ای هوشمندتر و منصفانه‌تر برای ارزیابی ریسک را نوید می‌دهد.

این مقاله نگاهی جامع به تحول تاریخی و پیشرفت مدل‌های رتبه‌بندی اعتباری در بانکداری می‌اندازد.

سیر تاریخی توسعه مدل‌های رتبه‌بندی اعتباری

 اوایل قرن بیستم: مدل‌های قضاوتی و ذهنی

در اوایل قرن بیستم، رتبه‌بندی اعتباری در صنعت بانکداری به‌شدت بر مدل‌های قضاوتی متکی بود که به قضاوت شخصی و تجربه مسئولین وام وابسته بودند. این مدل‌ها از ارزیابی‌های ذهنی بر اساس «پنج c اعتباری» استفاده می‌کردند: شخصیت، ظرفیت، سرمایه، وثیقه و شرایط. (کراهنن و وبر، ۲۰۰۱). با این حال، این روش فاقد ثبات و انصاف بود، زیرا مسئولین وام می‌توانستند متقاضیان مشابه را به‌طور متفاوتی ارزیابی کنند که منجر به رتبه‌بندی‌های اعتباری غیر قابل اعتماد می‌شد. افزایش حجم درخواست‌های اعتباری، محدودیت‌های این مدل‌های قضاوتی را آشکار کرد و نیاز به رویکردی عینی‌تر و سیستماتیک‌تر برای ارزیابی ریسک اعتباری را برجسته ساخت. (ساندرز و آلن، ۲۰۰۲؛ آلتمن، ۱۹۶۸)

دهه ۱۹۵۰: مدل‌های امتیازدهی اعتباری

دهه ۱۹۵۰ با معرفی امتیازدهی اعتباری، نقطه عطفی به‌سمت مدل‌های کمّی بود. این مدل‌ها از تکنیک‌های آماری مانند تحلیل ممیزی چندگانه (MDA) برای طبقه‌بندی وام‌گیرندگان و بر اساس نسبت‌های مالی استفاده می‌کردند. (بیور، ۱۹۶۶) امتیازدهی اعتباری با تکیه بر داده‌های قابل سنجش مانند درآمد و سطوح بدهی، ثبات بیشتری به فرایند ارزیابی اعتباری آورد و تاثیر تعصبات شخصی را کاهش داد. (جونز، ۱۹۸۷)

کارهای پیشگامانه دوراند (۱۹۴۱) و فیشر (۱۹۳۶) به توسعه مدل‌های آماری پیچیده‌تر کمک کرد، در حالی که کاپلان و اورویتز (۱۹۷۹) مدل‌های رتبه‌بندی اوراق قرضه را پیشرفت دادند. این تلاش‌ها رویکردی مبتنی‌بر داده را برای ارزیابی ریسک اعتباری ایجاد کرد.

دهه ۱۹۶۰: رگرسیون خطی

در دهه ۱۹۶۰، رگرسیون خطی به‌عنوان ابزاری کلیدی برای پیش‌بینی ریسک اعتباری با استفاده از روابط بین نسبت‌های مالی و احتمال نکول ظهور کرد. این روش، امکان رویکردی تحلیلی‌تر برای درک ریسک اعتباری را فراهم کرد. (ساندرز و آلن، ۲۰۰۲) مدل Z-score  آلتمن (۱۹۶۸)، که از رگرسیون خطی برای ترکیب چندین نسبت مالی در یک امتیاز برای پیش‌بینی ورشکستگی استفاده می‌کرد، به‌طور گسترده‌ای در ارزیابی ریسک اعتباری مورد استفاده قرار گرفت. مدل‌های رگرسیون خطی، چارچوبی روشن ارائه دادند اما محدودیت‌هایی داشتند، مانند فرض روابط خطی بین متغیرها و حساسیت به داده‌های پرت و هم‌خطی چندگانه. (بیور، ۱۹۶۶؛ جونز، ۱۹۸۷)

دهه ۱۹۷۰: تحلیل ممیزی

تحلیل ممیزی در دهه ۱۹۷۰ به‌عنوان روشی برای طبقه‌بندی وام‌گیرندگان بر اساس ویژگی‌های مالی برجسته شد و دیدی جامع‌تر از ریسک اعتباری ارائه داد. بیور (۱۹۶۶) اثربخشی آن را در پیش‌بینی شکست شرکت‌ها نشان داد، در حالی که آلتمن (۱۹۶۸) از طریق کار خود آن را بیشتر محبوب کرد. تحلیل ممیزی، امکان درنظرگرفتن همزمان چندین متغیر را فراهم کرد و دقت ارزیابی‌های ریسک اعتباری را بهبود بخشید. با این حال، این روش مستلزم فرضیاتی درباره نرمال‌بودن و توزیع داده‌ها بود که می‌توانست اثربخشی آن را در برخی سناریوها محدود کند. (کراهنن و وبر، ۲۰۰۱؛ جونز، ۱۹۸۷)

دهه ۱۹۸۰: رگرسیون لجستیک

رگرسیون لجستیک در دهه ۱۹۸۰ به‌طور گسترده‌ای به‌عنوان روشی برای مدل‌سازی نتایج دوتایی مانند نکول یا عدم نکول پذیرفته شد. این روش، روابط غیرخطی را مدیریت می‌کرد و برآوردهای احتمالی ارائه می‌داد، که آن را برای طبقه‌بندی ریسک اعتباری مفید می‌ساخت. (ساندرز و آلن، ۲۰۰۲) جونز (۱۹۸۷) اثربخشی رگرسیون لجستیک در پیش‌بینی ورشکستگی را برجسته کرد که نشان‌دهنده بهبود قابل توجهی در قابلیت اطمینان ارزیابی‌های اعتباری بود.

اواخر دهه ۱۹۸۰: سیستم‌های خبره

سیستم‌های خبره، یکی از اولین کاربردهای هوش مصنوعی در امور مالی، در اواخر دهه ۱۹۸۰ ظهور کردند. این سیستم‌ها فرایندهای تصمیم‌گیری انسانی را تقلید و از قوانین و روش‌های ابتکاری برای ارزیابی ریسک اعتباری استفاده می‌کردند. اگرچه سیستم‌های خبره هم عوامل کیفی و هم کمّی را در نظر می‌گرفتند، اما توسعه و نگهداری آنها پیچیده بود. (کراهنن و وبر، ۲۰۰۱؛ جونز، ۱۹۸۷) با این حال، آنها زمینه را برای کاربردهای آینده هوش مصنوعی در رتبه‌بندی اعتباری فراهم کردند. (ساندرز و آلن، ۲۰۰۲)

دهه ۱۹۹۰: درخت‌های تصمیم

دهه ۱۹۹۰ شاهد معرفی درخت‌های تصمیم بود که روش بصری و شهودی برای مدل‌سازی ریسک اعتباری با تقسیم داده‌ها و بر اساس متغیرهای کلیدی ارائه می‌داد. درخت‌های تصمیم در مدیریت روابط غیرخطی و داده‌های گمشده موثر بودند (کراهنن و وبر، ۲۰۰۱). با این حال، آنها مستعد بیش‌برازش بودند، به‌ویژه با مجموعه داده‌های کوچک یا نویزدار. (جونز، ۱۹۸۷)

اواخر دهه ۱۹۹۰: شبکه‌های عصبی

شبکه‌های عصبی در اواخر دهه ۱۹۹۰ محبوب شدند و نقطه عطف مهمی را در رتبه‌بندی اعتباری نشان دادند. این مدل‌ها الگوهای پیچیده و غیرخطی را در داده‌ها تشخیص می‌دادند و دقت پیش‌بینی را بهبود می‌بخشیدند. (آلتمن، ۱۹۶۸) اگرچه شبکه‌های عصبی، انعطاف‌پذیری را در مدیریت مجموعه داده‌های بزرگ ارائه می‌دادند، اما از نظر محاسباتی پرهزینه بودند و اغلب به‌دلیل عدم قابلیت تفسیر، به‌عنوان «جعبه سیاه» مورد انتقاد قرار می‌گرفتند. (ساندرز و آلن، ۲۰۰۲؛ جونز، ۱۹۸۷)

 

دوره مدل ویژگی‌ها و پیشرفت‌های کلیدی
اوایل دهه 1900 مدل‌های قضاوتی –         وابسته به قضاوت و تجربه شخصی افسران وام

–         ارزیابی‌های ذهنی با عنوان «پنج C اعتباری» شامل شخصیت، ظرفیت بازپرداخت، سرمایه، وثیقه و شرایط

–         ناسازگار و دارای تعصب که منجر به رتبه‌بندی‌های اعتباری غیرقابل اعتماد می‌شد.

دهه 1950 مدل‌های امتیازدهی اعتباری – استفاده از تکنیک‌های آماری برای پیش‌بینی احتمال نکول بر اساس داده‌های تاریخی

– فراهم‌ کردن رتبه‌بندی‌های اعتباری عینی و سازگار

– کاهش تاثیر تعصب شخصی

دهه 1960 رگرسیون خطی –  استفاده از روابط خطی بین نسبت‌های مالی و احتمال نکول

– کمیت‌سازی تاثیر متغیرهای مالی فردی بر ریسک اعتباری

– ارائه چارچوبی روشن و قابل تفسیر

دهه 1970 تحلیل تفکیکی (ممیزی) –  طبقه‌بندی وام‌گیرندگان به دسته‌های ریسک اعتباری بر اساس ویژگی‌های مالی

– درنظرگرفتن همزمان چندین متغیر

– مدیریت روابط غیرخطی

دهه 1980 رگرسیون لجستیک –         مدیریت موثر خروجی‌های دوتایی (نکول/ عدم نکول)

–         ارائه برآوردهای احتمالی از ریسک نکول

–         مدل‌سازی روابط غیرخطی بین متغیرها

اواخر دهه 1980 سیستم‌های خبره – استفاده از هوش مصنوعی برای تقلید فرایند تصمیم‌گیری کارشناسان انسانی

– ادغام قوانین برای ارزیابی ریسک اعتباری

– کاربرد اولیه AI در امور مالی

دهه 1990 درخت‌های تصمیم‌گیری –  استفاده از ساختارهای درخت‌مانند برای تصمیم‌گیری بر اساس تقسیم ویژگی‌ها

– ارائه نمایه شهودی و بصری

– مدیریت روابط غیرخطی و تعاملات بین متغیرها

اواخر دهه 1990 شبکه‌های عصبی –  شناسایی الگوهای پیچیده در داده‌ها

– بهبود قابل توجه در دقت پیش‌بینی

–  پایه‌گذاری توسعه مدل‌های یادگیری عمیق پیشرفته در دهه‌های بعدی

مدل‌های اعتبارسنجی

پیشرفت مدل‌های رتبه‌بندی اعتباری

اواخر دهه ۱۹۹۰: شبکه‌های عصبی

اواخر دهه ۱۹۹۰ دوره تحول‌آفرینی برای مدل‌های رتبه‌بندی اعتباری با معرفی شبکه‌های عصبی بود. شبکه‌های عصبی مدل‌های محاسباتی الهام‌گرفته از ساختار مغز انسان هستند که برای تشخیص الگوهای پیچیده و غیرخطی در داده‌ها طراحی شده‌اند. این مدل‌ها بهبود قابل توجهی در دقت پیش‌بینی و قابلیت، نسبت به مدل‌های آماری سنتی ایجاد کردند.

یک مطالعه قابل توجه توسط آلتمن، مارکو و وارتو (۱۹۹۴) شبکه‌های عصبی را با تحلیل ممیزی خطی (LDA) برای پیش‌بینی بحران شرکت‌ها در بازار ایتالیا مقایسه کرد. تحقیق آنها نشان داد که شبکه‌های عصبی، عملکرد بهتری نسبت به روش‌های سنتی LDA داشتند.

در حمایت بیشتر از پتانسیل شبکه‌های عصبی در ارزیابی ریسک اعتباری، عطیه (۲۰۰۱) یک بررسی جامع در مورد پیش‌بینی ورشکستگی انجام داد. این مطالعه استحکام و انعطاف‌پذیری شبکه‌های عصبی در مدیریت مجموعه داده‌های بزرگ را نشان داد و اثربخشی آنها را نسبت به روش‌های متعارف تقویت کرد.

باسنس و همکاران (۲۰۰۳) الگوریتم‌های پیشرفته طبقه‌بندی برای امتیازدهی اعتباری را مقایسه کردند و نشان دادند که شبکه‌های عصبی به‌طور مداوم عملکرد بهتری نسبت به سایر الگوریتم‌ها داشتند. این یافته شبکه‌های عصبی را به‌عنوان یک تکنیک پیشرو در ارزیابی ریسک اعتباری تثبیت کرد. بعدها، خاشمن (۲۰۱۱) ادغام هوش هیجانی در مدل‌های شبکه عصبی را بررسی کرد که منجر به پیش‌بینی‌های حتی دقیق‌تر با ترکیب عوامل روانشناختی در کنار شاخص‌های مالی شد.

در سال ۲۰۰۰، یوباس، کروک و راس شبکه‌های عصبی را با ادغام تکنیک‌های تکاملی مانند الگوریتم‌های ژنتیک پیشرفت دادند. این مدل ترکیبی، امکان انتخاب و وزن‌دهی بهینه ویژگی‌ها را فراهم کرد و عملکرد کلی مدل را بهبود بخشید.

بنابراین، اواخر دهه ۱۹۹۰ شبکه‌های عصبی را به‌عنوان ابزاری قدرتمند برای ارزیابی ریسک اعتباری تثبیت کرد که دقت و پیچیدگی در مدیریت روابط غیرخطی و حجم زیادی از داده‌ها را ارائه می‌داد.

اوایل دهه ۲۰۰۰: ماشین‌های بردار پشتیبان  (SVM)

اوایل دهه ۲۰۰۰ ماشین‌های بردار پشتیبان (SVM) را به‌عنوان روشی قدرتمند دیگر برای ارزیابی ریسک اعتباری معرفی کرد. SVM‌ها داده‌ها را با یافتن ابرصفحه بهینه که کلاس‌های مختلف را جدا می‌کند، طبقه‌بندی می‌کنند و آنها را به‌ویژه برای امتیازدهی اعتباری، جایی که داده‌ها اغلب چندبعدی هستند، مفید می‌سازند.

باسنس و همکاران (۲۰۰۳) SVM‌ها را در مطالعه معیار خود گنجاندند و دریافتند که SVM‌ها عملکردی رقابتی با شبکه‌های عصبی داشتند و دقت بالایی در پیش‌بینی ریسک اعتباری ارائه می‌دادند. آنها چندین مزیت داشتند، از جمله مدیریت موثر مجموعه داده‌های نامتوازن (مسئله‌ای رایج در مدل‌سازی ریسک اعتباری، جایی که موارد نکول، کمتر از موارد غیرنکول هستند) و تشخیص روابط پیچیده بین متغیرها با استفاده از توابع کرنل.

با وجود اثربخشی آنها، SVM‌ها نیازمند تنظیم دقیق پارامترها بودند و از نظر محاسباتی پرهزینه. با این حال، دقت بالا و قابلیت‌های تعمیم آنها، SVM‌ها را به ابزاری ارزشمند در مدل‌سازی ریسک اعتباری تبدیل کرد.

اواسط دهه ۲۰۰۰: روش‌های ترکیبی (مانند جنگل‌های تصادفی و تقویت گرادیان)

اواسط دهه ۲۰۰۰ شاهد ظهور روش‌های ترکیبی در مدل‌های رتبه‌بندی اعتباری، به‌ویژه جنگل‌های تصادفی و ماشین‌های تقویت گرادیان (GBM)  بود. این روش‌ها چندین مدل را برای بهبود دقت و استحکام ترکیب می‌کنند.

جنگل‌های تصادفی، که توسط بریمن (۲۰۰۱) معرفی شدند، پیش‌بینی‌های چندین درخت تصمیم را تجمیع می‌کنند و بیش‌برازش را کاهش داده و دقت طبقه‌بندی را بهبود می‌بخشند. از سوی دیگر،GBM  مدل‌ها را به‌صورت متوالی می‌سازد و خطای مدل‌های قبلی را اصلاح می‌کند تا عملکرد را بهبود بخشد. هر دو روش در مطالعه باسنس و همکاران (۲۰۰۳) به‌دلیل دقت پیش‌بینی برتر، برجسته شدند.

روش‌های ترکیبی چندین مزیت داشتند: آنها مقاوم بودند، بیش‌برازش را کاهش می‌دادند و مجموعه داده‌های بزرگ را به‌طور موثر مدیریت می‌کردند. توانایی آنها در تجمیع چندین مدل، پیش‌بینی‌های قابل اعتمادتر و دقیق‌تری ارائه می‌داد و آنها را به ابزارهای ضروری در ارزیابی ریسک اعتباری در اواسط دهه ۲۰۰۰ تبدیل کرد.

اواخر دهه ۲۰۰۰: شبکه‌های بیزی

شبکه‌های بیزی که در اواخر دهه ۲۰۰۰ معرفی شدند، رویکرد احتمالاتی به ارزیابی ریسک اعتباری ارائه دادند و وابستگی‌ها بین متغیرها را از طریق گراف‌های جهت‌دار بدون دور نمایش می‌دادند. کار پرل (۱۹۸۸) پایه نظری برای شبکه‌های بیزی را فراهم کرد که امکان ترکیب دانش کارشناسی با روش‌های مبتنی‌بر داده را فراهم می‌کرد.

شبکه‌های بیزی به‌روزرسانی پویا ارائه می‌دادند، به این معنی که مدل‌ها می‌توانستند با در دسترس قرارگرفتن داده‌های جدید بهبود یابند. ساختار گرافیکی واضح آنها امکان تجسم آسان تعاملات پیچیده را فراهم و به تصمیم‌گیری کمک می‌کرد.

با وجود مزایای آنها، شبکه‌های بیزی نیاز به تخصص قابل توجهی برای توسعه داشتند و برای مجموعه داده‌های بزرگ از نظر محاسباتی پرهزینه بودند. با این حال، توانایی آنها در مدیریت عدم قطعیت، آنها را به افزوده‌ای ارزشمند در مدل‌سازی ریسک اعتباری تبدیل کرد.

دهه ۲۰۱۰: یادگیری عمیق

یادگیری عمیق، زیرمجموعه‌ای از شبکه‌های عصبی با لایه‌های متعدد در دهه ۲۰۱۰ ظهور کرد و دقت بی‌سابقه‌ای را به مدل‌های ریسک اعتباری آورد. مدل‌های یادگیری عمیق در تشخیص الگوهای پیچیده در مجموعه داده‌های بزرگ برتری دارند و می‌توانند داده‌های بدون ساختار مانند متن و تصاویر را مدیریت کنند و بهبود قابل توجهی نسبت به روش‌های سنتی ارائه دهند.

هیتون، پولسون و ویته (۲۰۱۷) کاربرد یادگیری عمیق در امور مالی را بررسی کردند و دریافتند که این مدل‌ها عملکرد بهتری نسبت به روش‌های آماری سنتی داشتند. تنوع یادگیری عمیق توسط فیشر و کراوس (۲۰۱۸) که از شبکه‌های حافظه کوتاه‌مدت طولانی (LSTM) برای تحلیل داده‌های بازار مالی استفاده کردند، بیشتر تاکید شد. LSTM‌ها به‌ویژه در تشخیص وابستگی‌های زمانی، که در ارزیابی ریسک اعتباری ضروری‌ست، موثر هستند.

نیاکی و نونتالیراک (۲۰۱۶) نشان دادند که شبکه‌های عصبی یادگیری عمیق می‌توانند نرخ‌های نکول را دقیق‌تر از روش‌های سنتی پیش‌بینی کنند، در حالی که سیریگنانو و کونت (۲۰۱۹) اثربخشی آنها را در تشخیص پویایی‌های پیچیده بازار نشان دادند.

مدل‌های یادگیری عمیق مزایای کلیدی مانند استخراج خودکار ویژگی‌ها، انعطاف‌پذیری در مدیریت انواع مختلف داده‌ها و توانایی مدل‌سازی روابط غیرخطی را ارائه می‌دادند. با این حال، پیچیدگی و نیازهای محاسباتی آنها چالش‌هایی را ایجاد می‌کرد، اما بهبود در دقت پیش‌بینی، یادگیری عمیق را به ابزاری ضروری در مدل‌های مدرن ریسک اعتباری تبدیل کرد.

اواسط دهه ۲۰۱۰:XGBoost و ماشین‌های تقویت گرادیان  (GBM)

XGBoost که در اواسط دهه ۲۰۱۰ معرفی شد، پیاده‌سازی کارآمد و مقیاس‌پذیری از تقویت گرادیان ارائه داد. سرعت، دقت بالا و توانایی آن در مدیریت مجموعه داده‌های بزرگ، آن را به روشی ترجیحی در مدل‌سازی ریسک اعتباری تبدیل کرد. (باسنس و همکاران، ۲۰۰۳)

ماشین‌های تقویت گرادیان (GBM) در طول دهه ۲۰۱۰ همچنان یک انتخاب برتر برای ارزیابی ریسک اعتباری باقی ماندند، به‌ویژه به‌دلیل رویکرد تکراری آنها در اصلاح خطاهای قبلی. عملکرد XGBoost با کارایی محاسباتی آن مشخص شد و تکنیک‌های تنظیم آن به جلوگیری از بیش‌برازش کمک کرد. علی‌رغم اثربخشی آنها،XGBoost  و GBM نیاز به تنظیم دقیق پارامترها داشتند و می‌توانستند برای مبتدیان پیچیده باشند. با این حال، دقت پیش‌بینی و استحکام، آنها را در رتبه‌بندی اعتباری بسیار ارزشمند ساخت.

اواخر دهه ۲۰۱۰ :LightGBM  و  CatBoost

اواخر دهه ۲۰۱۰ شاهد نوآوری‌های بیشتر در روش‌های ترکیبی با توسعه LightGBM و CatBoost بود. الگوریتم‌های یادگیری مبتنی‌بر درخت LightGBM و سرعت آموزش بالا، آن را در مدیریت مجموعه داده‌های بزرگ، کارآمد ساخت. توانایی آن در مدیریت خودکار و کارآمد ویژگی‌های دسته‌ای به‌ویژه در مدل‌سازی ریسک اعتباری مزیت داشت. (باسنس و همکاران، ۲۰۰۳)

CatBoost در مدیریت داده‌های دسته‌ای تخصص داشت و نوآوری‌هایی ارائه می‌داد که بیش‌برازش را کاهش داده و دقت مدل را بهبود می‌بخشید. هر دو الگوریتم به انتخاب‌های ترجیحی برای موسسات مالی تبدیل شدند، زیرا تعادلی بین دقت، سرعت و کارایی ارائه می‌دادند.

دهه ۲۰۲۰: هوش مصنوعی قابل توضیح  (XAI)

با پیچیده‌ترشدن مدل‌های ریسک اعتباری، تقاضا برای قابلیت توضیح افزایش یافت. دهه ۲۰۲۰ هوش مصنوعی قابل توضیح (XAI) ظهور کرد که هدف آن، ارائه شفافیت و قابلیت تفسیر به مدل‌های ریسک اعتباری بود. مدل‌های XAI با ارائه توضیحات روشن برای پیش‌بینی‌های خود، عدالت و پاسخگویی را تضمین می‌کنند که برای انطباق با مقررات و اعتماد مشتری بسیار مهم است. (باسنس و همکاران، ۲۰۰۳)

اگرچه توسعه مدل‌های XAI پیچیده‌تر است، شفافیت آنها در صنعت مالی، جایی که تصمیم‌گیری باید شفاف و بدون تعصب باشد، بسیار ارزشمند است.

جدول پیشرفت مدل‌های رتبه‌بندی اعتباری

دوره مدل ویژگی‌ها و پیشرفت‌های کلیدی
اواخر دهه 1990 شبکه‌های عصبی –  تقلید از ساختار نورون‌های مغز انسان

– شناسایی الگوهای پیچیده و غیرخطی

– بهبود قابلیت‌های پیش‌بینی نسبت به مدل‌های آماری سنتی

اوایل دهه 2000 ماشین‌های بردار پشتیبان  (SVM) – طبقه‌بندی داده‌ها با یافتن ابرصفحه بهینه

– استحکام در مدیریت فضاها با ابعاد بالا

–  موثر در مدیریت مجموعه داده‌های نامتوازن

اواسط دهه 2000 روش‌های مجموعه‌ای (جنگل تصادفی، GBM) – ترکیب چندین مدل برای بهبود عملکرد پیش‌بینی

–  جنگل‌های تصادفی با استفاده از چندین درخت تصمیم‌گیری بیش‌برازش را کاهش می‌دهند.

– GBM  مدل‌ها را به‌صورت متوالی می‌سازد و خطاهای قبلی را تصحیح می‌کند.

اواخر دهه 2000 شبکه‌های بیزی – رویکرد احتمالاتی با استفاده از گراف جهت‌دار بدون دور

– ترکیب روش‌های مبتنی‌بر داده و متخصص

–  به‌روزرسانی باورها بر اساس اطلاعات جدید

– چارچوب گرافیکی واضح برای درک روابط بین متغیرها

دهه 2010 یادگیری عمیق – شبکه‌های عصبی با چندین لایه

– شناسایی الگوهای پیچیده در مجموعه‌های بزرگ داده

– مدیریت داده‌های غیرساختاری مانند متن و تصاویر

دهه 2010 ماشین‌های گرادیان بوستینگ (GBM) – تمرکز بر تقویت یادگیرنده‌های ضعیف

– رویکرد تکراری برای دقت بالا

– انعطاف‌پذیری در مدیریت انواع داده‌ها و مشکلات پیش‌بینی

اواسط دهه 2010 XGBoost – پیاده‌سازی کارآمد و مقیاس‌پذیر گرادیان بوستینگ

– مدیریت مجموعه‌های بزرگ داده

– دقت بالا با هزینه محاسباتی نسبتاً کم

اواخر دهه 2010 LightGBM – بهبود کارایی گرادیان بوستینگ با استفاده از الگوریتم‌های یادگیری مبتنی‌بر درخت

– سرعت بالای آموزش و پیش‌بینی

– مدیریت خودکار ویژگی‌های دسته‌ای

اواخر دهه 2010 CatBoost – تخصص در مدیریت خودکار ویژگی‌های دسته‌ای

– کاهش نیاز به پیش‌پردازش گسترده داده‌ها

– استحکام در برابر بیش‌برازش

دهه 2020 مدل‌های هوش مصنوعی قابل توضیح (XAI) –  تمرکز بر شفافیت و تفسیرپذیری تصمیمات هوش مصنوعی

–  ارائه توضیحات واضح برای پیش‌بینی‌ها

–  اطمینان از تصمیمات اعتباری منصفانه و پاسخگو

 

تحلیل مقایسه‌ای مدل‌های امتیازدهی اعتباری

1. مدل‌های آماری سنتی

مدل‌های آماری کلاسیک مانند رگرسیون خطی، رگرسیون لجستیک و تحلیل ممیزی، برای سال‌ها زیربنای اصلی سیستم‌های امتیازدهی اعتباری بوده‌اند. این مدل‌ها به‌دلیل سادگی، سهولت پیاده‌سازی و قابلیت تفسیر بالا، به‌ویژه در محیط‌های نظارتی، همواره مورد توجه قرار داشته‌اند.

رگرسیون لجستیک، به‌عنوان یکی از رایج‌ترین ابزارها برای مدل‌سازی متغیرهای دودویی، امکان تخمین احتمال نکول را فراهم می‌سازد و از این رو در بسیاری از سیستم‌های اعتبارسنجی به کار گرفته می‌شود. (توماس، ادلمن و کروک، ۲۰۰۲) تحلیل ممیزی نیز که برای طبقه‌بندی داده‌ها موثر است، به فروضی نظیر نرمال‌بودن چندمتغیره و تساوی ماتریس‌های کوواریانس میان گروه‌ها وابسته بوده و در صورت نقض این فروض، دقت آن کاهش می‌یابد. (توماس و همکاران، ۲۰۰۲)

2. مدل‌های یادگیری ماشین

با گسترش داده‌های کلان و افزایش توان پردازشی، مدل‌های پیشرفته‌تری تحت عنوان یادگیری ماشین وارد حوزه امتیازدهی اعتباری شده‌اند. این مدل‌ها شامل درخت‌های تصمیم، ماشین‌های بردار پشتیبان (SVM)، شبکه‌های عصبی و روش‌های ترکیبی نظیر جنگل‌های تصادفی و گرادیان بوستینگ (GBM) هستند.

مزیت اصلی این مدل‌ها، توانایی در شناسایی روابط غیرخطی، تعاملات پیچیده بین متغیرها و قابلیت پردازش داده‌های بزرگ است. مطالعات تجربی نشان داده‌اند که بسیاری از این مدل‌ها، به‌ویژه روش‌های ترکیبی، دقت بالاتری در پیش‌بینی ریسک نکول نسبت به مدل‌های سنتی دارند. (بایسنز و همکاران، ۲۰۰۳؛ لسمان و همکاران، ۲۰۱۵) با این حال، چالش‌هایی مانند نیاز به منابع محاسباتی قابل توجه، پیاده‌سازی پیچیده و تفسیرپذیری محدود، مانع استفاده گسترده آنها در برخی کاربردهای نظارتی شده است.

3. تحلیل مقایسه‌ای میان مدل‌های سنتی و یادگیری ماشین

در این بخش، عملکرد دو دسته مدل معرفی‌شده با استناد به مطالعات تجربی، معیارهای ارزیابی کلیدی و ملاحظات کاربردی، مورد بررسی و مقایسه قرار می‌گیرد:

  • شواهد تجربی

مطالعات تطبیقی متعددی به مقایسه مستقیم بین مدل‌های سنتی و مدل‌های یادگیری ماشین پرداخته‌اند. برای مثال، یه و لین (۲۰۰۹) در مطالعه‌ای روی مشتریان کارت اعتباری نشان دادند که شبکه‌های عصبی و ماشین‌های بردار پشتیبان (SVM) عملکرد بهتری نسبت به درخت‌های تصمیم دارند. با این حال، در حوزه‌هایی مانند اعتبارسنجی در موسسات مالی که شفافیت و قابلیت تفسیر خروجی‌ها از اهمیت بالایی برخوردار است، مدل‌های سنتی همچنان گزینه‌ای قابل اتکاست. (عبده و پوینتون، ۲۰۱۱)

از سوی دیگر، مطالعاتی مانند تحقیق بایسنز و همکاران (۲۰۰۳) و همچنین لسمان و همکاران (۲۰۱۵) نشان می‌دهند که روش‌های مجموعه‌ای مانند جنگل تصادفی و  GBM ضمن دستیابی به دقت بالا، در برابر بیش‌برازش نیز مقاوم‌تر عمل می‌کنند.

  • معیارهای ارزیابی عملکرد

مقایسه عملکرد مدل‌های امتیازدهی اعتباری بر پایه مجموعه‌ای از معیارهای کلیدی صورت می‌گیرد؛ از جمله:

  • دقت پیش‌بینی (Accuracy)
  • تفسیرپذیری (Interpretability)
  • کارایی محاسباتی (Computational Efficiency)
  • استحکام یا تعمیم‌پذیری (Robustness)

مدل‌های یادگیری ماشین، به‌ویژه مدل‌های ترکیبی، اغلب در شاخص دقت پیش‌بینی، عملکرد بهتری دارند. در مقابل، مدل‌هایی نظیر رگرسیون لجستیک از تفسیرپذیری بالاتری برخوردار بوده و در محیط‌هایی با الزامات نظارتی، مزیت مهمی به شمار می‌آیند. همچنین، مدل‌های ترکیبی به‌دلیل استفاده از چند الگوریتم به‌صورت همزمان، اغلب در برابر بیش‌برازش مقاوم‌تر هستند و عملکرد پایدار‌تری از خود نشان می‌دهند. (یه و لین، ۲۰۰۹)

  • ملاحظات کاربردی در انتخاب مدل

انتخاب مدل مناسب برای امتیازدهی اعتباری بستگی زیادی به ماهیت داده‌ها، الزامات قانونی، منابع در دسترس و اهداف عملیاتی دارد. برای مثال:

  • در کاربردهایی که توضیح تصمیم‌های مدل برای ذی‌نفعان یا نهادهای نظارتی الزامی است، مدل‌های آماری سنتی معمولا ترجیح داده می‌شوند.
  • در مقابل، برای کاربردهایی مانند فیلتر اولیه مشتریان پرریسک، که دقت بالای پیش‌بینی، اهمیت بیشتری دارد، استفاده از مدل‌های یادگیری ماشین یا مدل‌های ترکیبی می‌تواند مناسب‌تر باشد.

در سال‌های اخیر، استفاده از مدل‌های هیبریدی که تلاش می‌کنند دقت مدل‌های یادگیری ماشین را با تفسیرپذیری مدل‌های سنتی تلفیق کنند، رو به افزایش بوده است. (لسمان و همکاران، ۲۰۱۵)

ویژگی مدل‌های آماری سنتی مدل‌های یادگیری ماشین
مدل‌های شاخص رگرسیون خطی، رگرسیون لجستیک، تحلیل ممیزی درخت‌های تصمیم، ماشین بردار پشتیبان (SVM)، شبکه‌های عصبی، جنگل تصادفی، گرادیان بوستینگ (GBM)
نقاط قوت سادگی، قابلیت تفسیر بالا، پیاده‌سازی آسان، مناسب برای محیط‌های نظارتی دقت پیش‌بینی بالا، توانایی شناسایی روابط پیچیده، مدیریت داده‌های حجیم، عملکرد خوب در داده‌های غیرخطی
نقاط ضعف فرض روابط خطی، وابستگی به فروض آماری (نرمال‌بودن، کوواریانس برابر)، ضعف در الگوهای غیرخطی پیچیدگی پیاده‌سازی، نیاز به منابع محاسباتی بالا، تفسیرپذیری محدود، دشواری در کاربرد نظارتی
دقت پیش‌بینی قابل قبول در بسیاری از کاربردها، اما محدود در مدل‌سازی تعاملات پیچیده معمولاً بالاتر از مدل‌های سنتی، به‌ویژه در روش‌های ترکیبی
تفسیرپذیری بسیار بالا؛ امکان تحلیل وزنی متغیرها و ارائه استدلال شفاف پایین‌تر؛ به‌ویژه در مدل‌های پیچیده مانند شبکه‌های عصبی و GBM
استحکام (Robustness) متوسط؛ در صورت نقض فروض آماری دچار افت عملکرد می‌شود بالا؛ روش‌های ترکیبی در برابر بیش‌برازش مقاوم هستند
کارایی محاسباتی بالا؛ نیاز به منابع کم و سرعت اجرا مناسب پایین‌تر؛ به منابع و زمان پردازش بیشتری نیاز دارد، به‌ویژه در یادگیری عمیق
مطالعات تجربی شاخص توماس و همکاران (۲۰۰۲): تأکید بر تفسیرپذیری و سادگی مدل‌های سنتی بایسنز و همکاران (۲۰۰۳)، لسمان و همکاران (۲۰۱۵): برتری در دقت و استحکام مدل‌های ترکیبی یادگیری ماشین
ملاحظات عملی مناسب برای محیط‌های قانون‌محور و زمانی که شفافیت تصمیم‌گیری حیاتی است مناسب برای کاربردهای پرریسک یا نیازمند دقت بالا، در صورت وجود منابع و توانایی فنی
پیشنهاد کاربردی استفاده در مواردی که تفسیرپذیری، شفافیت، و پیاده‌سازی سریع مهم است استفاده در مواردی که دقت بالا و قدرت پیش‌بینی اولویت دارد؛ مدل‌های هیبریدی برای تعادل بین دقت و شفافیت مناسب‌اند

چالش‌ها و جهت‌گیری‌های آینده در مدل‌های رتبه‌بندی اعتباری

چالش‌ها در مدل‌های رتبه‌بندی اعتباری

چندین چالش مهم بر اثربخشی مدل‌های رتبه‌بندی اعتباری تاثیر می‌گذارد، از جمله کیفیت داده‌ها، قابلیت تفسیر مدل، انطباق با مقررات و ماهیت در حال تحول بازارهای مالی.

1. کیفیت و دردسترس‌بودن داده‌ها

اطمینان از داده‌های با کیفیت بالا و جامع برای مدل‌های اعتباری به‌دلیل مسائلی مانند سوابق ناقص و نگرانی‌های مربوط به حریم خصوصی داده‌ها چالش‌برانگیز است. (هند و هنلی، ۱۹۹۷) ماهیت پویای بازارهای مالی همچنین به این معنی است که داده‌های تاریخی به‌سرعت منسوخ می‌شوند و نیاز به به‌روزرسانی‌های مداوم دارند. (میز، ۲۰۰۱)

2. قابلیت تفسیر مدل

مدل‌های یادگیری ماشین، اگرچه دقیق هستند، اغلب به‌دلیل پیچیدگی و عدم شفافیت، مورد انتقاد قرار می‌گیرند. این ماهیت «جعبه سیاه» در صنعت مالی، جایی که الزامات نظارتی، خواستار تصمیمات قابل توضیح هستند، مشکل‌ساز است. (کاروانا و نیکولسکو- میزیل، ۲۰۰۶)

3. انطباق با مقررات

موسسات مالی باید از مقرراتی مانند قانون فرصت برابر اعتباری (ECOA) پیروی کنند تا از شیوه‌های غیر تبعیض‌آمیز در وام‌دهی اطمینان حاصل کنند. رعایت این مقررات هنگام استفاده از مدل‌های پیچیده یادگیری ماشین می‌تواند دشوار باشد. (میز، ۲۰۰۱)

4. بازارهای مالی در حال تحول

تغییرات سریع در شرایط اقتصادی و روندهای بازار، نظارت مداوم بر مدل، اعتبارسنجی و واسنجی مجدد را برای حفظ دقت پیش‌بینی ضروری می‌سازد. (توماس، ۲۰۰۰)

جهت‌گیری‌های آینده در مدل‌های رتبه‌بندی اعتباری

با وجود این چالش‌ها، پیشرفت‌های امیدوارکننده‌ای در این زمینه وجود دارد، از جمله مدل‌های ترکیبی، ادغام داده‌های جایگزین، هوش مصنوعی قابل توضیح و تکنیک‌های پیشرفته.

1. مدل‌های ترکیبی

مدل‌های ترکیبی، دقت یادگیری ماشین را با قابلیت تفسیر روش‌های سنتی ترکیب می‌کنند و رویکردی متعادل ارائه می‌دهند. (تسای و چن، ۲۰۱۰)

2. منابع داده جایگزین

ادغام داده‌های غیرسنتی مانند فعالیت رسانه‌های اجتماعی و پرداخت‌های خدمات عمومی می‌تواند قدرت پیش‌بینی مدل‌های اعتباری را افزایش دهد، به‌ویژه برای افرادی با سوابق اعتباری محدود. (هند و هنلی، ۱۹۹۷)

3. هوش مصنوعی قابل توضیح

تکنیک‌هایی مانند تقطیر مدل و LIME در حال توسعه هستند تا قابلیت تفسیر مدل را بهبود بخشند و انطباق با مقررات و اعتماد ذی‌نفعان را تضمین کنند. (کاروانا و نیکولسکو- میزیل، ۲۰۰۶)

4. تکنیک‌های پیشرفته

یادگیری انتقالی و یادگیری تقویتی، روش‌های جدیدی برای بهبود انطباق‌پذیری و عملکرد مدل‌های رتبه‌بندی اعتباری در شرایط متغیر بازار ارائه می‌دهند. (تسای و چن، ۲۰۱۰)

5. فناوری بلاکچین

بلاکچین می‌تواند شفافیت و یکپارچگی داده‌ها را بهبود بخشد و به نگرانی‌های مربوط به کیفیت و حریم خصوصی داده‌ها رسیدگی کند. (هند و هنلی، ۱۹۹۷)

6. امتیازدهی اعتباری بلادرنگ و هوش مصنوعی اخلاقی

پیشرفت‌ها در امتیازدهی اعتباری بلادرنگ و تکنیک‌هایی برای اطمینان از عدالت در مدل‌های مبتنی‌بر هوش مصنوعی نیز آینده سیستم‌های رتبه‌بندی اعتباری را شکل می‌دهند (توماس، ۲۰۰۰؛ میز، ۲۰۰۱).

تکامل مداوم مدل‌های رتبه‌بندی اعتباری، ماهیت پویای ارزیابی ریسک مالی را برجسته می‌کند. همان‌طور که فناوری پیشرفت می‌کند، روش‌هایی که ما برای ارزیابی ریسک اعتباری استفاده می‌کنیم نیز باید تکامل یابند تا اطمینان حاصل شود که در یک چشم‌انداز مالی همواره در حال تغییر، موثر، شفاف و عادلانه باقی می‌مانند.

منابع

Abdou, H., & Pointon, J. (2011). Credit scoring, statistical techniques, and evaluation criteria: A review of the literature. Intelligent Systems in Accounting, Finance and Management, 18(2-3), 59-88.

Altman, E. I. (1968). Financial ratios, discriminant analysis and the prediction of corporate bankruptcy. The Journal of Finance, 23(4), 589-609.

Altman, E. I., Marco, G., & Varetto, F. (1994). Corporate distress diagnosis: Comparisons using linear discriminant analysis and neural networks (the Italian experience). Journal of Banking & Finance, 18(3), 505-529.

Altman, E. I., & Rijken, H. A. (2004). How rating agencies achieve rating stability. Journal of Banking & Finance, 28(11), 2679-2714.

Altman, E. I., & Saunders, A. (1998). Credit risk measurement: Developments over the last 20 years. Journal of Banking & Finance, 21(11-12), 1721-1742.

Atiya, A. F. (2001). Bankruptcy prediction for credit risk using neural networks: A survey and new results. IEEE Transactions on Neural Networks, 12(4), 929-935.

Baesens, B., Van Gestel, T., Viaene, S., Stepanova, M., Suykens, J., & Vanthienen, J. (2003). Benchmarking state-of-the-art classification algorithms for credit scoring. Journal of the Operational Research Society, 54(6), 627-635.

Basel Committee on Banking Supervision. (2000). Principles for the management of credit risk. Bank for International Settlements.

Beaver, W. H. (1966). Financial ratios as predictors of failure. Journal of Accounting Research, 4, 71-111.

Breiman, L. (2001). Random forests. Machine Learning, 45(1), 5-32.

Breiman, L., Friedman, J., Stone, C. J., & Olshen, R. A. (1984). Classification and regression trees. CRC Press.

Cantor, R., & Packer, F. (1996). Determinants and impacts of sovereign credit ratings. Economic Policy Review, 2(2), 37-53.

Caruana, R., & Niculescu-Mizil, A. (2006). An empirical comparison of supervised learning algorithms. Proceedings of the 23rd International Conference on Machine Learning, 161-168.

Chen, S., & Dhillon, I. S. (2019). Deep learning with label proportions applied to credit rating. IEEE Transactions on Knowledge and Data Engineering, 31(10), 1885-1898.

Durand, D. (1941). Risk elements in consumer instalment financing. National Bureau of Economic Research.

Fischer, T., & Krauss, C. (2018). Deep learning with long short-term memory networks for financial market predictions. European Journal of Operational Research, 270(2), 654-669.

Fisher, R. A. (1936). The use of multiple measurements in taxonomic problems. Annals of Eugenics, 7(2), 179-188.

Fitch Ratings. (2021). The Importance of Credit Ratings in Financial Markets.

Green, W. H. (1978). On the asymptotic covariance matrix of the QML estimator for the linear regression model under misspecification. Journal of Econometrics, 10(3), 361-367.

Hand, D. J., & Henley, W. E. (1997). Statistical classification methods in consumer credit scoring: A review. Journal of the Royal Statistical Society: Series A (Statistics in Society) , 160(3), 523-541.

Heaton, J. B., Polson, N. G., & Witte, J. H. (2017). Deep learning in finance. Annual Review of Financial Economics, 9, 201-222.

Jones, F. L. (1987). Current techniques in bankruptcy prediction. Journal of Accounting Literature, 6, 131-164.

Kaplan, R. S., & Urwitz, G. (1979). Statistical models of bond ratings: A methodological inquiry. Journal of Business, 52(2), 231-261.

Khashman, A. (2011). Credit risk evaluation using neural networks: Emotional versus conventional models. Applied Soft Computing, 11(8), 5477-5484.

Krahnen, J. P., & Weber, M. (2001). Generally accepted rating principles: A primer. Journal of Banking & Finance, 25(1), 3-26.

Lessmann, S., Baesens, B., Seow, H. V., & Thomas, L. C. (2015). Benchmarking state-of-the-art machine learning techniques for credit scoring. Journal of the Operational Research Society, 66(6), 743-751.

Mays, E. (Ed.). (2001). Handbook of credit scoring. Chicago: Glenlake Publishing Company, Ltd.

Merton, R. C. (1974). On the pricing of corporate debt: The risk structure of interest rates. The Journal of Finance, 29(2), 449-470.

Myers, S. C., & Majluf, N. S. (1984). Corporate financing and investment decisions when firms have information that investors do not have. Journal of Financial Economics, 13(2), 187-221.

Quinlan, J. R. (1986). Induction of decision trees. Machine Learning, 1(1), 81-106.

Saunders, A., & Allen, L. (2002). Credit risk measurement: New approaches to value at risk and other paradigms. Wiley.

Sirignano, J., & Cont, R. (2019). Universal features of price formation in financial markets: Perspectives from deep learning. Quantitative Finance, 19(1), 9-27.

Steinberg, D., & Colla, P. (1995). CART: Tree-structured non-parametric data analysis. Salford Systems.

Thomas, L. C. (2000). A survey of credit and behavioural scoring: Forecasting financial risk of lending to consumers. International Journal of Forecasting, 16(2), 149-172.

Thomas, L. C., Edelman, D. B., & Crook, J. N. (2002). Readings in credit scoring: Foundations, developments, and aims. Oxford University Press.

Tsai, C. F., & Chen, M. L. (2010). Credit rating by hybrid machine learning techniques. Applied Soft Computing, 10(2), 374-380.

Tufféry, S. (2011). Data mining and statistics for decision making. Wiley.

Yeh, I. C., & Lien, C. H. (2009). The comparisons of data mining techniques for the predictive accuracy of probability of default of credit card clients. Expert Systems with Applications, 36(2), 2473-2480.

Yobas, M. B., Crook, J. N., & Ross, P. (2000). Credit scoring using neural and evolutionary techniques. IMA Journal of Management Mathematics, 11(2), 111-125.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

مطالب مرتبط