Update: 2025-09-23
Kourosh Dadkhah
Faculty of Science / Department of Statistics
Master Theses
-
Comparative Analysis of Ridge Regression and Ridge-Type M-Estimators: A Robust Approach for Handling Outliers
2024Outliers present a major challenge in statistical analysis, especially in regression modeling. While ridge regression is commonly used to manage multicollinearity, it becomes less effective when outliers are involved due to its reliance on least squares estimation. To overcome this issue, Silvapulle,1991 introduced a ridge-type M-estimator specifically designed for handling outliers. Building on this approach, Acitas and Senoglu ,2019 developed a ridge-type estimator based on modified maximum likelihood (MML) estimation, which offers greater robustness against outliers, particularly when the error distribution follows long-tailed symmetry (LTS). This M.Sc. thesis aims to compare the performance of three estimators: the traditional ridge estimator, Silvapulle’s ridge-type M-estimator, and Acitas and Senoglu’s ridge-type MML estimator. The goal is to evaluate these estimators using the mean square error (MSE) criterion through Monte Carlo simulations and real-world datasets. By comparing these methods, the study seeks to identify the best technique for managing outliers and improving the accuracy of regression models. The research includes both a theoretical review and an empirical analysis. The theoretical component involves a comprehensive review of ridge regression, M-estimators, and the ridge-type MML estimator, with a focus on their statistical properties and outlier robustness. The empirical analysis will use Monte Carlo simulations to test the estimators under various conditions of multicollinearity and outlier contamination, as well as apply them to real-world datasets to validate their practical effectiveness. This study is expected to provide insights into the comparative strengths and weaknesses of the traditional ridge estimator, Silvapulle's ridge-type M-estimator, and the ridge-type MML estimator from Acitas and Senoglu. These findings will contribute to the field of robust regression modeling and offer practical value to statisticians, researchers, and practitioners, helping them handle outliers more effectively and improve regression model accuracy.
-
Enhancing Kernel-based Regression with a Generalized Robust Loss Functions and Iteratively Reweighted Least Squares: A Comparative Study
2024Kernel-based least squares methods have been widely used in regression problems due to their simplicity and good generalization performance. Among these methods, Least Squares Support Vector Regression (LSSVR) and Extreme Learning Machine (ELM) are popular techniques. However, their sensitivity to outliers is a major issue. To address this, a generalized loss function called ℓs-loss is proposed in this thesis. By incorporating this new loss function, two kernel-based regression methods are developed by replacing the ℓ2-loss in LS-SVR and ELM with the proposed ℓs-loss to enhance robustness against outliers. Key features of the ℓs-loss, including robustness, asymmetry, and asymptotic approximation behaviors, are theoretically validated. Additionally, the optimization and interpretation of the proposed methods are performed using an iteratively reweighted least squares approach from the perspective of weighted data handling.
-
Robust semiparametric regression for censored data
2024Semiparametric linear models have gained significant attention from researchers because of their unique characteristics, which combine elements of both fully parametric and nonparametric models. By leveraging the strengths of both types of models, these models offer more precise and flexible regression analyses. When fitting any model, including semiparametric regression models, researchers may not have complete information on the variables and may encounter the issue of censoring. If the response variable is censored for some of the observations, the parameter estimates obtained using conventional regression methods will be biased. In this thesis, a suitable estimation method for parameters in semi-parametric regression models in the presence of censored data is proposed. In addition to censored data, collinearity among the explanatory variables presents another challenge for semiparametric regression models. Collinearity is problematic, and its impact on various aspects of regression models is well documented. These effects include variance inflation, incorrect signs of regression estimates, and the invalidity of important variables. In this context, the use of ridge estimators is proposed to address collinearity in censored semiparametric linear models. Researchers have provided substantial evidence of outliers and their detrimental effects on the parameter estimates of regression models. The utilization of least trimmed squares estimators, a powerful method for regression analysis in the presence of outliers, has been suggested. By mitigating the influence of outliers, this method can yield more reliable and stable results. Generalizing these estimators is one of the commonly employed estimation methods due to their simplicity, high breakdown point, and robustness against outliers. In this thesis, the least trimmed squares and ridge estimators are extended to censored semiparametric regression models in the presence of outliers. Further more, the proposed estimators are compared to conventional estimators using Monte Carlo simulation results, and finally, these estimators are applied to a real world dataset.
-
The Relationship between Post Traumatic Stress Symptoms and Post Traumatic Growth among Secondary High School Students with Trauma: The Mediating Role of Resilience and Academic Self Efficacy
2024The purpose of this study was to investigate the relationship between post-traumatic stress symptoms and post-traumatic growth in secondary school students with trauma experience: the mediating role of resilience and academic self-efficacy. The statistical population of the present study included all students studying in the secondary schools in Sanandaj in the academic year 1402-1401. Using purposive sampling method, 415 students were selected. The post-traumatic stress questionnaire (PCL-5), Tedeschi and Calhoun (1996) post-traumatic growth questionnaire, Connor and Davidson (2003) resilience questionnaire and McIlroy and Buntig (2002) academic self-efficacy questionnaire were used to collect data. The data were analyzed using the structural equation method. The results obtained from the research showed that there is a negative and significant relationship between post-traumatic stress and post-traumatic growth, academic self-efficacy and resilience. Also, each of the resilience and academic self-efficacy variables are able to play a mediating role in the relationship between post-traumatic stress symptoms and post-traumatic growth. Accordingly, it can be concluded that each of the variables of academic self-efficacy and resilience are able to reduce the symptoms of post-traumatic stress disorder and mutually increase post-traumatic growth in students with trauma experience. Therefore emphasis on these variables in counseling with students with symptoms of post - traumatic stress disorder in schools will be helpful
-
Robustness of reweighted Least Squares Kernel Based Regression
2023Addressing the challenge of fitting data in the presence of outlier is a crucial research endeavor across various real-world data mining applications. Recently, robust regression has garnered significant attention from researchers, with its roots tracing back to the early works of scientists in both statistics and mathematics. Diverse techniques have emerged to tackle the robust regression problem in numerous practical scenarios. Notably, a promising set of methods leverages kernel learning techniques derived from regularization network theory. Several well-known techniques, including regularized least squares (RLS) and support vector regression (SVR), have been developed under similar theoretical foundations. In the context of real-world regression problems, the presence of noise poses an inevitable challenge that demands careful consideration. In the realm of kernel learning methods, two common approaches are employed to address this challenge. One approach involves augmenting the regression optimization with a regularization term to prevent overfitting the data. Recognizing the pivotal role of regularization in achieving enhanced generalization performance in kernel methods is imperative. The second approach, though sometimes overlooked, is equally crucial in mitigating the noise problem. Traditional kernel-based regression methods, for instance, often employ a quadratic loss function, which can be significantly affected by outliers, thereby potentially influencing the resulting solution. This thesis aims to contribute to the understanding and enhancement of robust regression techniques. The first chapter provides an introduction to kernel methods. Subsequently, the second chapter delves into ridge and lasso regularization methods, while the third chapter defines stable kernel regression methods. Finally, the fourth chapter implements selected numerical methods on both real and simulated data, showcasing their practical applicability.
-
Review of robust and efficient estimates of multivariate parameters of location and scatter
2023Sample means and covariance's are basic elements of most procedures in multivariate analysis. They are the maximum likelihood estimators for multivariate normal data. It is known, however, that even a small proportion of atypical observations may seriously affect them. A large number of approaches have been proposed and we review 7 methods in this thesis.
-
خوشه بندی استوار بر اساس برآورد چگالی هسته
2022یکی از مهم ترین کارها در دادهکاوی، خوشه بندی داده های موجود در یک مجموعه داده است. این تکنیک بهدنبال کشف ساختارهایی است که منجر به گروه بندی نمونه های موجود در یک مجموعه داده می شوند، بهگونه ای که نمونه های مشابه، درون دسته هایی که بیشترین شباهت را با هم داشته قرار می گیرند، در حالی که دارای تفاوتی قابل قبول با نمونه های سایر گروه ها هستند. الگوریتم های خوشه بندی را می توان به چند دسته کلی الگوریتم های خوشه بندی مبتنی بر مرکز، مبتنی بر اتصال، مبتنی بر توزیع، مبتنی بر گرید و مبتنی بر چگالی تقسیم نمود. از آنجا که روش های خوشه بندی مبتنی بر فاصله دارای معایبی از جمله موارد زیر هستند: ‐1مشخص کردن تعداد خوشه ها در ابتدای اجرای الگوریتم ‐2نامناسب بودن روش برای اشکال غیر محدب و چگالی های مختلف ‐3مشکل واکنش زنجیری‐4پیچیدگی زمانی و مکانی ‐5شناسایی نکردن نقاط نویز بهطور کامل ‐6ایجاد خوشه های نامطلوب؛ زیرا اساس کار این روش ها فاصله بین نمونههاست. برای غلبه بر این مشکلات از روش های خوشه بندی براساس چگالی استفاده می کنیم که بهینه تر عمل می کنند در این پایان نامه ابتدا بهمرور روش های خوشه بندی مطرح پرداخته و چند الگوریتم از هر روش را معرفی می کنیم که در ادامه روش ها و الگوریتم های موجود از نظر برخی از پارامترها مقایسه شده و به بررسی مزایا و معایب هر الگوریتم پرداخته شدهاست. در نهایت الگوریتم های خوشه بندی براساس چگالی را روی چندین داده مختلف با استفاده از نرمافزار Rاجرا می کنیم و میزان کارا بودن هر الگوریتم را محاسبه می کنیم.
-
رگرسیون خطی چند متغیره استوار در ابعاد بالا
2021دربرازش مدل خطی رگرسیون چندمتغیره در ابعاد بالا دو مشکل اساسی ممکن است اتفاق افتد. اولین مشکل می تواند ناشی از حضور داده پرت باشد. داده های پرت می توانند خط رگرسیونی برازش داده شده را منحرف کنند. دومین مشکل ممکن است به علت ابعاد بالای داده ها باشد. ابعاد بالای داده ها باعث همخطی شده و در نتیجه برآورد پارامترها به روش حدقل مربعات خطا، به علت تورم واریانس دچار مشکل می شود.هدف ما در این پایان نامه مرور و ارزیابی روش هایی برای برخورد با این مسائل است .برای رگرسیون داده های ابعاد بالا سه روش رگرسیون متغیر پاسخ روی مؤله های اصلی ، حداقل مربعات جزیی و رگرسیون لاسو بررسی می شود. سپس انواع روش های رگرسیونی استوار را مطالعه می کنیم . در فصل چهارم دو روش رگرسیون داده های ابعاد بالا و رگرسیون استوار را برای روش های رگرسیونی چند متغیره استوار در ابعاد بالا ادغام می کنیم . در فصل پایانی سعی میشود روش های پیشنهادی را به وسیله داده های واقعی و شبیه سازی با هم مقایسه کنیم.
-
مرور و ارزیابی آزمون های استوار و کارای آنالیز واریانس چندمتغیره یک راهه
2021در تحلیل واریانس چند متغیره یک راهه فرض برابری بردارهای میانگین در چند گروه آزمون خواهد شد. تحت فرض های کلاسیک معمولا از آماره لاندای ویلکس برای ازمون این فرض ها استفاده خواهد شد. اما چون این آماره تحت تاثیر داده های پرت قرار خواهد گرفت بنابراین به بررسی روش های استوار برای آزمون MANOVA یک راهه می پردازیم که ایده اصلی این روش ها جایگزینی برآوردگرهای استوار به جای برآوردگرهای کلاسیک در محاسبه آماره لاندای ویلکس است. همچنین چون در سال های اخیرتحلیل واریانس چند متغیره یک راهه بدون در نظر گرفتن فرض های کلاسیک مورد توجه قرار گرفته شده است پس در این پایان نامه برخی از این روش ها را بررسی خواهیم کرد.همچنین از ناحیه اطمینان بوت استرپی برای آزمون فرض برابری بردارهای میانگین استفاده خواهد شد که با جایگذاری برآوردهای مکانی دیگری مانند میانه و میانگین پیراسته به جای میانگین در این فاصله اطمینان تاثیر داده پرت نیز حذف خواهد شد.
-
Identifying the Factors Influencing the Effective Activity of Companies in the Business Netwrok (Case Study:Food Industry Companies in Iran)
2020In this competitive business environment, using relationships and acting effectively in business networks is critical for all manufacturing and service companies. Companies have many limitations, including lack of resources and capabilities. Companies can overcome these limitations and benefit the network membership by using relationships and sharing resources. Network membership provides many opportunities for companies. In this study, a set of factors affecting effective activity in business network in food industry is examined. The statistical population of this study includes senior and middle-level managers of active companies in the food industry. The sample consists of 205 senior and middle-level managers of food industry companies in Urmia and food companies with central office in Tehran. Data was collected by a questionnaire and analyzed by using descriptive statistics, measurement model test and structural model test. The results show that among the 8 factors of resource sharing, shared vision, trust, commitment, partner selection, information technology, network competence and flexibility, only the last two factors affect the effective activity of companies in business network in Iran and this effect is positive. Also, network competence has more impact than flexibility.
-
مرور آزمونهای موجود در شرایط غیرنرمال بودن و ناهم واریانسی برای آنالیز واریانس یک طرفه
2020آزمونهای آماری کلاسیک در بسیاری از حوزه ها استفاده می شود. این آزمون ها براساس فرضیات خاصی (به عنوان مثال، نرمال بودن و هم واریانسی) باید انجام شود تا نتایج دقیق حاصل شود. نقض چنین فرضیاتی یک مسئله رایج است که محققان با آن روبه رو هستند. آزمونهای آماری جایگزین قوی مانند آزمون ولش، آزمون یوئن برای میانگین های پیراسته و آزمون الکساندر- گاورن و جیمز برای مقابله با نقض این فرضیات استفاده می شود. نتایجی که بر اساس شبیه سازی های انجام شده به دست آمده است، مشخص می کند که برای نرخ خطای نوع اول بر اساس آزمونهای ارائه شده، آزمون بوت استرپ پارامتری عملکرد بهتری نسبت به سایر آزمون ها دارد. برای نرخ توان آزمون، آزمون تحلیل واریانس چارکی عملکرد بهتری دارد.
-
Outlier detection and robust regression for correlated data
2020In regression analysis, the presence of outliers in the data set can cause deviation of classical powered squared estimator and produce abnormal results. The outlier detection in various fields is of great interest. In available data outlier detection methods, most data errors are often considered independent. But this hypothesis does not hold in some applications. In this thesis, we first review linear regression and the concepts of outliers. Then, in the second chapter, several robust regression methods are considered as alternative methods for the second least-squares method. In Chapter 3, we review a possible method for identifying outliers and consistent updating to solve linear regression data for correlated data. Initially, the suspected data are identified using the minimum elliptic volume method and the maximal squared likelihood method. Then, outliers from suspicious data will be determined based on possible outliers, taking into account the correlation between the data. The proposed method is evaluated through real and simulated data.
-
بررسی نمودارهای کنترل فرایند آماری استوار
2018نمودارهای کنترل ازجمله مهم ترین ابزارهای کنترل فرایند آماری هستند. طراحی مناسب نمودارهای کنترل نیازمند برآورد کردن مقادیر پارامترهای فرایند است. در این پایان نامه از برآوردگرهای استوار پراکندگی و مکانی، به منظور برآورد پارامترها استفاده می شود. نمودار کنترل استوار با عملکرد خوبی موردبررسی قرار می گیرد و برای زمانی که توزیع فاصله زیادی از نرمال دارد، همچنان عملکرد خوبی را از خود نشان می دهد. برای داده های خود همبسته نیز روش پیش بین هالت وینترز در نمودارهای کنترل با عملکرد خوبی مورد ارزیابی قرار می گیرد. زمانی که مشاهدات انفرادی است، از نمودارهای کنترل XMR استفاده می کنیم که هم برای داده های مستقل و هم برای داده های خود همبسته عملکرد خوبی را در حضور آلودگی دارد. درنهایت، نتایج روش ها را روی یک مجموعه داده واقعی بررسی می کنیم.
-
بررسی رگرسیون استوار به روش هسته بر اساس توابع تاثیر و وزن
2018رگرسیون به روش هسته یک مفهوم اساسی در تحلیل رگرسیون است که به وسیله ی آن خط رگرسیونی را به داده ها برازش می دهیم. اما اگر در میان مشاهدات داده ی پرت وجود داشته باشد، استفاده از رگرسیون به روش هسته بازیان حداقل مربعات باعث برازش نادرست خط رگرسیونی خواهد شد. رگرسیون استوار حوزه ای از رگرسیون است که به آسانی از داده پرت تأثیر نمی گیرد و استواری به وسیله بازوزن دهی به برآورد حداقل مربعات به روش هسته با استفاده از توابع وزن مختلف فراهم می شود. در این پایان نامه توابع وزن را باهم مقایسه و سپس وزن هایی که استواری بیشتر و همگرایی سریع تر داشته باشند، انتخاب می شوند.
-
تاثیر ویژگی های کمیته حسابرسی بر اجرای توصیه های حسابرس داخلی در شرکت های پذیرفته شده در بورس اوراق بهادار تهران
2017چکیده صورت های مالی، اطلاعات مفید برای اتخاذ تصمیم گیری های اقتصادی و سرمایه گذاری ارائه می کنند که این اطلاعات برای استفاده کنندگان، در ارزیابی وضعیت و عملکرد مالی شرکت مهم هستند. ازاین رو صورت های مالی حسابرسی شده احتمالاً تنها منبع مورد اعتماد اطلاعات قابل دسترس است . از سوی دیگر، کمیته های حسابرسی باید به طرز صحیحی سازمان دهی شوند تا بتوانند منافع چشم گیری برای کلیه گروه ها داشته باشند و هم چنین بتوانند وظیفه مباشرت گزارشگری هیئت مدیره را تقویت نمایند و ارتباط بین حسابرس مستقل و مدیریت را بهبود بخشند. بنابراین هدف این پژوهش، بررسی رابطه بین تخصص کمیته حسابرسی و کیفیت حسابرسی است. این پژوهش ازلحاظ هدف کاربردی و ازلحاظ ماهیت، توصیفی– همبستگی است. جامعه آماری این پژوهش، شرکت های پذیرفته شده در بورس اوراق بهادار تهران طی سال های 1390-1395 می باشد که با روش حذف سیستماتیک، 57 شرکت در نمونه آماری این پژوهش قرارگرفته اند. جهت آزمون فرضیه های پژوهش از مدل رگرسیون چند متغیره و روش حداقل مربعات معمولی استفاده شد. یافته های پژوهش نشان می دهد، بین تخصص مالی کمیته حسابرسی و کیفیت حسابرسی رابطه معناداری وجود ندارد. همچنین به منظور روشن تر شدن موضوع، تخصص مالی کمیته حسابرسی به دو گروه تخصص حسابداری و غیر حسابداری تقسیم شد. نتایج نشان داد بین تخصص مالی حسابداری کمیته حسابرسی و کیفیت حسابرسی یک رابطه مثبت و معنادار و بین تخصص مالی غیر حسابداری کمیته حسابرسی و کیفیت حسابرسی یک رابطه منفی و معنادار وجود دارد. تجربه کمیته حسابرسی نیز باکیفیت حسابرسی یک رابطه مثبت و معنادار دارد. کلمات کلیدی: کمیته حسابرسی، تخصص مالی، حق الزحمه حسابرسی، کیفیت حسابرسی، حاکمیت شرکتی.
-
مطالعه ای در آزمون های همگنی واریانس ها در برابر فرض مخالف مرتب شده
2016مسئله ی شناسایی روند های یکنواخت در واریانس ها در بیشتر موارد کاربردی مطرح می شوند و از روش های آماری متعددی برای آزمون چنین مسائلی استفاده می شود. در این پایان نامه شش آزمون، لون، کنتراست دو گانه، کنتراست چند گانه، مدهولکر - مک درموت با مقادیر ساختگی میلر، روند لون و لون گونه ای تودرتو با دو روش حذف صفر ساختاری هاینز-هاینز و روش تصحیح صفر در توزیع های متقارن، چوله و دم سنگین با اندازه نمونه های متفاوت بررسی می شوند. هدف ما مقایسه عملکرد آزمون توزیع آزاد لون گونه ای تودرتو با سایر آزمون ها است. این مقایسات بر اساس بررسی نرخ خطای نوع اول و توان آزمون ها است. نتایج شبیه سازی نشان می دهند که آزمون توزیع آزاد لون گونه ای تودرتو، یک برآورد خیلی دقیق از اندازه را به دست می دهد و یک توان نزدیک به حالت ایده آل را برای انواع توزیع ها، اندازه نمونه ها و فرض های مخالف مختلف ارائه می دهد.
-
برآورد تابع چگالی در حضور داده های پرت
2016تابع چگالی احتمال مفهومی اساسی در آمار و احتمال است. به وسیله تابع چگالی احتمال می توان به رفتار تصادفی متغیرهای تصادفی پی برد. تکنیک برآورد چگالی هسته ای کلاسیک یکی از روشهای مرسوم در برآورد تابع چگالی است که در غیاب داده های پرت صورت می گیرد. اگر مشاهدات عاری از داده پرت باشند، استفاده از روش برآورد چگالی ه روش هسته ای بسیار کارا است؛ اما معمولاً در میان مشاهدات داده پرت وجود دارد. استفاده از روش برآورد هسته ای چگالی در حضور چنین مشاهداتی در میان داده ها باعث بیش برآوردی یا کم برآوردی در قسمتهایی از تابع چگالی خواهد شد؛ به عبارت دیگر مشاهدات پرت میزان اریبی برآورد چگالی را افزایش می دهند. بنابراین روش یا روشهایی برای برآورد چگالی وقتی که در مشاهدات داده پرت وجود دارد، مورد نیاز است. در این پایان نامه روشهای برآورد استوار چگالی مرور می شود. سپس روش جستجوی پیشرو معرفی و روش جدیدی بر اساس این رهیافت ارائه و پیشنهاد می شود.
-
تحلیل واریانس استوار بر اساس روش های جستجوی پیشرو و جایگشتی
2016برای مقایسه میانگین دو یا چند جامعه از آزمون تحلیل واریانس استفاده می شود. در صورت حضور نقاط دورافتاده در مجموعه داده ها، نتیجه آزمون کلاسیک تحلیل واریانس قابل اعتماد نیست. در این پایان نامه، ابتدا روش استوار تحلیل واریانس بر اساس جستجوی پیشرو ارائه می شود. روش جستجوی پیشرو روشی کاملا گرافیکی است. سپس به کمک توزیع جایگشتی آماره F بر اساس میانگین پیراسته، روش استوار جدیدی برای تحلیل واریانس پیشنهاد داده می شود. روش پیشنهادی برخلاف روش جستجوی پیشرو، به کمک توزیع جایگشتی آماره مورد بررسی، ما را از فرضیات محدود کننده روش پارامتری بی نیاز می کنند. در عین حال، به کمک پیراستن داده ها از مشاهدات دورافتاده، اعتبار نتایج حاصل تضمین می شود. مقایسه دو مدل شبیه سازی شده به وسیله توان آزمون و خطای نوع اول، حکایت از عملکرد خوب دو روش و البته سرعت بالاتر روش پیشنهادی دارد.در نهایت، نتایج دو روش را روی یک مجموعه داده واقعی بررسی می کنیم.
-
کشف داده های پرت براساس چگالی در داده های چندمتغیره
2015وجود مشاهدات پرت یکی از مهم ترین موضوعات در استنباط آماری است. با توجه به این که این مشاهدات تأثیر زیادی بر مدل برازش داده شده و استنباط های مربوط به آن دارند، پیدا کردن روش هایی برای کشف مشاهدات پرت ضروری است. در این پایان نامه چندین روش کشف مشاهدات پرت در مجموعه داده های تک متغیره و چندمتغیره معرفی شده است. این روش ها بر اساس فاصله و نزدیکترین همسایگی هستند. سپس چهار روش برای کشف مشاهدات پرت بر مبنای چگالی مورد بررسی قرار می گیرد که عبارتند از روشLOF ، روشDWOF ، کشف مشاهدات پرت با استفاده از روش برآورد استوار چگالی هسته و کشف مشاهدات پرت با استفاده از تابع وزنی هسته ای استوار. این روش ها نمره هایی را به مشاهدات اختصاص می دهد که میزان پرت بودن مشاهدات را تعیین می کنند. با استفاده از مقایسات شبیه سازی شده، میانگین و انحراف استاندارد نرخ خطا و زمان اجرای هر یک از روش ها را مورد بررسی قرار می دهیم.
-
تحلیل خوشه بندی استوار بر اساس روشهای k - میانگین
2014انحراف از فرض تئوری و وجود نقاط دور افتاده به طور معمول در بسیاری از کاربردهای آماری وجود دارد. این مشکل زمانی که از روش های خوشه بندی نیز استفاده می کنیم وجود دارد و سبب می شود، که این روش ها ما را به نتایج ناخوشایندی هدایت کنند. برآورد کننده ای که نسبت به نقاط دور افتاده و انحراف از فرض تئوری حساس نباشد را برآورد کننده ی استوار می نامند. ارتباط بین روش های استوار و تحلیل خوشه ای چارچوب متحد و جذاب خوشه بندی استوار را می سازد. در این پایان نامه سعی شده ضمن مرور روش های خوشه بندی به طور ویژه به روش هایی که بر اساس پیراسته کردن است بپردازد. پیراسته کردن سعی دارد، داده های دور افتاده ای که فرایند خوشه ای را منحرف می سازد، حذف کند
-
کاربرد تخمین های ناپارامتریک در تحلیل خطر احتمالی زمین لرزه
2014تحلیل خطر احتمالاتی زمین لرزه ابزاری سودمند است که محققین به کمک آن به برآورد شدت زمین لرزه و انجام پیش بینی های لازم جهت مقابله با زمین لرزه می پردازند. در تحلیل خطر لرزه ای احتمالاتی به کمک مدل های ریاضی به برآورد توزیع چگالـی بزرگای زمین لرزه هـای رخ داده پرداخته شده، سپس به کمک این توزیع چگالـی، پارامترهای لرزه خیـزی ناحیه مورد مطالعه تخمین زده مـی شود. به دلیل نقش مهم توزیع چگالی بزرگا در علم تحلیل خطر احتمالاتی لرزه ای استفاده از روش های ریاضی نوین جهت برآورد هرچه دقیق تر این توزیع همواره مورد توجه محققین بوده است. در این بین به اثبات رسیده است که استفاده از روش های آماری ناپارامتریک به عنوان یک روش جدید، می تواند دقت تخمین چگالی بزرگا را بهبود بخشد. به دلیل ماهیت پیچیده و غیرخطی توزیع بزرگای زمین لرزه، روش های سنتی پارامتریک که غالبا براساس رابطه ریشتر-گوتنبرگ می باشند، قادر به برآورد دقیق توزیع بزرگا در تمامی الگوهای لرزه خیزی نمی باشنـد. به همین دلیل استفاده از روش های ناپارامتریک به دلیل در نظر گرفتن کمترین فرضیات اولیه در مورد توزیع مورد نظر، در صورت وجود هرگونه پیچیدگی در توزیع واقعی بزرگا، یک جایگزین مناسب برای روش های پارامتریک سنتی باشد. شبیه سازی مونت کارلو کارآیی روش های ناپارامتریک نسبت به روش های پارامتریک را در تمامی الگوهای لرزهخیزی موجود، به اثبات رسانده است. به عنوان یک مطالعه موردی لرزه خیزی ایالت لرزه زمین ساخت البرز-آذربایجان با استفاده از روش های ناپارامتریک مورد بررسی قرار گرفته و با نتایج روش های پارامتریک مقایسه شده است. نتایج این بررسی نشان می دهد که در مورد ایالت لرزه زمین ساخت البرز-آذربایجان، روش های پارامتریک سنتی، سطح لرزه ای موجود را به صورت دست پایین نتیجه می دهند.