@article{ author = {Khaledi, Baha-Eldin and Farsinejad, Sepiede}, title = {Ordering of Order Statistics Using Variance Majorization}, abstract ={ In this paper, we study stochastic comparisons of order statistics of independent random variables with proportional hazard rates, using the notion of variance majorization.}, Keywords = { reverse hazard rate ordering, usual stochastic ordering, proportional hazard models, majorization. }, volume = {4}, Number = {2}, pages = {149-160}, publisher = {Statistical Research and Training Center - Statistical Centre of Iran}, title_fa = {مرتب کردن آماره‌های ترتیبی با استفاده از بیشاندن واریانس}, abstract_fa ={ در این مقاله با استفاده از نظریه‌ی «بیشاندن واریانس»‌ به بررسی مقایسه‌های تصادفی آماره‌های ترتیبی حاصل از متغیرهای تصادفی مستقل با نرخ خطر متناسب می‌پردازیم.}, keywords_fa = {مرتب کردن نرخ خطر, ترتیب تصادفی معمول, مدل‌های خطرهای متناسب, بیشاندن. }, doi = {10.18869/acadpub.jsri.4.2.149}, url = {http://jsri.srtc.ac.ir/article-1-175-en.html}, eprint = {http://jsri.srtc.ac.ir/article-1-175-en.pdf}, journal = {Journal of Statistical Research of Iran JSRI}, issn = {2538-5771}, eissn = {2538-5763}, year = {2008} } @article{ author = {KhanjariSadegh, Mohammad and Moghaddaszadeh, Bagher}, title = {Number of Minimal Path Sets in a Consecutive-k-out-of-n: F System}, abstract ={In this paper the combinatorial problem of determining the number of minimal path sets of a consecutive-k-out-of-n: F system is considered. For the cases where k = 2, 3 the explicit formulae are given and for k ≥ 4 a recursive relation is obtained. Direct computation for determining the number of minimal path sets of a consecutive-k-out-of-n: F system for k ≥ 4 remains a difficult task.}, Keywords = { Minimal path set, consecutive-k-out-of-n: F system, generation function. }, volume = {4}, Number = {2}, pages = {161-174}, publisher = {Statistical Research and Training Center - Statistical Centre of Iran}, title_fa = {تعداد مجموعه‌های مینیمال مسیر در یک سیستم k از n پیاپی از نوع خرابی}, abstract_fa ={ در این مقاله مسئله‌ی ترکیباتی تعیین تعداد مجموعه‌های مینیمال مسیر یک سیستم k ازn پیاپی از نوع خرابی بررسی شده است. به‌ازای 3 ,2 = k فرمول‌های صریح ارائه شده‌اند و در حالت 3< k یک رابطه‌ی بازگشتی بدست آمده است. محاسبه‌ی مستقیم تعداد مجموعه‌های مینیمال مسیر سیستم k از n پیاپی از نوع خرابی به‌ازای 3< k یک مسئله‌ی مشکل باقی می‌ماند.}, keywords_fa = {مجموعه‌ی مینیمال مسیر, سیستم k ازn پیاپی از نوع خرابی, تابع مولد.}, doi = {10.18869/acadpub.jsri.4.2.161}, url = {http://jsri.srtc.ac.ir/article-1-176-en.html}, eprint = {http://jsri.srtc.ac.ir/article-1-176-en.pdf}, journal = {Journal of Statistical Research of Iran JSRI}, issn = {2538-5771}, eissn = {2538-5763}, year = {2008} } @article{ author = {P.Singh, Housila and Karpe, Namrat}, title = {Effect of Measurement Errors on a Class of Estimators of Population Mean Using Auxiliary Information in Sample Surveys}, abstract ={ We consider the problem of estimation the population mean of the study variate Y in presence of measurement errors when information on an auxiliary character X is known. A class of estimators for population means using information on an auxiliary variate X is defined. Expressions for its asymptotic bias and mean square error are obtained. Optimum conditions are obtained for which the mean square errors of the proposed class of estimators are minimum.  }, Keywords = {study variate, auxiliary variatc, measurement errors, bias, mean squared error.}, volume = {4}, Number = {2}, pages = {175-189}, publisher = {Statistical Research and Training Center - Statistical Centre of Iran}, title_fa = {اثر خطاهای اندازه‌گیری بر روی رده‌ای از براوردگرهای میانگین جامعه با استفاده از اطلاعات کمکی در آماگیری‌های نمونه‌ای}, abstract_fa ={ ما مسئله‌ی براورد میانگین جامعه،‌ برای متغییر مورد مطالعه‌ی ‌Y در حضور خطاهای اندازه‌گیری را در زمانی که اطلاعات یک صفت کمکی X معلوم است، در نظر گرفته‌ایم. رده‌ای از براوردگرهای میانگین جامعه با استفاده از اطلاعات متغییر کمکی X تعریف شده است. روابط اریبی مجانبی و میانگین توان دوم خطاها به دست آمده‌اند. شرایط بهینه‌ای به دست آمده است که تحت آن، میانگین توان دوم خطاهای رده‌ی پیشنهادی براوردگرها کمینه است.}, keywords_fa = {متغیر مورد مطالعه, متغیر کمکی, خطاهای اندازه‌گیری, اریبی, میانگین توان دوم خطاها.}, doi = {10.18869/acadpub.jsri.4.2.175}, url = {http://jsri.srtc.ac.ir/article-1-174-en.html}, eprint = {http://jsri.srtc.ac.ir/article-1-174-en.pdf}, journal = {Journal of Statistical Research of Iran JSRI}, issn = {2538-5771}, eissn = {2538-5763}, year = {2008} } @article{ author = {Ahmadi, Jafar}, title = {Some Results Based on Entropy Properties of Progressive Type-II Censored Data}, abstract ={In many life-testing and reliability studies, the experimenter might not always obtain complete information on failure times for all experimental units. One of the most common censoring schemes is progressive type-II censoring. The aim of this paper is characterizing the parent distributions based on Shannon entropy of progressive type-II censored order statistics. It is shown that the equality of the Shannon information in progressive type-II censored order statistics can determine the parent distribution uniquely. We establish some characterization through the difference of Shannon entropy of the parent distribution and respective progressive type-II censored order statistics. We also prove that the dispersive ordering of the parent distributions implies the entropy ordering of their respective progressive type-II censored order statistics.   }, Keywords = { Exponential distribution, Müntz-Szász theorem, order statistics, reliability properties, stochastic orders, Weibull distribution, Pareto distribution. }, volume = {4}, Number = {2}, pages = {191-202}, publisher = {Statistical Research and Training Center - Statistical Centre of Iran}, title_fa = {نتایجی براساس آنتروپی داده‌های سانسور شده‌ی فزاینده‌ی نوع دوم}, abstract_fa ={ در مطالعات مربوط به قابلیت اعتماد و آزمایش‌های طول عمر،‌ ممکن است اطلاعات کاملی از زمان کار افتادگی اقلام مورد آزمایش در دسترس نباشد و با داده‌های سانسور شده مواجه شویم. سانسور فزاینده‌ی نوع دوم یکی از مشهورترین طرح‌ها در مبحث سانسورها است. هدف این مقاله،‌ مشخص‌سازی توزیع‌های جامعه بر اساس آنترپی شانون آماره‌های مرتب سانسور شده‌ی فزاینده‌ی نوع دوم است. نشان داده خواهد شد که برابری آنترپی شانون آماره‌های مرتب سانسور شده‌ی فزاینده‌ی نوع دوم، توزیع جامعه را به‌طور یکتا تعیین می‌کند. همچنین مشخص‌سازی از طریق تفاضل آنتروپی شانون جامعه‌ی اصلی و آماره‌های ترتیبی سانسور شده‌ی فزاینده‌ی نوع دوم متناظر با آن، ارائه می‌شود. به‌علاوه، ثابت می‌شود که ترتیب در پراکندگی دو جامعه منجر به ترتیب در آنتروپی آماره‌های ترتیبی سانسور شده‌ی فزاینده‌ی نوع دوم متناظر با آن‌ها خواهد شد.}, keywords_fa = {توزیع نمایی؛ قضیه‌ی (مونْتْس-زاز), آماره‌های ترتیبی, ویژگی‌های قابلیت اعتماد, ترتیب‌های تصادفی, توزیع وایبول, توزیع پارتو.}, doi = {10.18869/acadpub.jsri.4.2.191}, url = {http://jsri.srtc.ac.ir/article-1-171-en.html}, eprint = {http://jsri.srtc.ac.ir/article-1-171-en.pdf}, journal = {Journal of Statistical Research of Iran JSRI}, issn = {2538-5771}, eissn = {2538-5763}, year = {2008} } @article{ author = {DehghanMonfared, Esmail and Meshkani, Rez}, title = {Bayesian Estimation of the Multiple Change Points in Gamma Process Using X-bar chart}, abstract ={The process personnel always seek the opportunity to improve the processes. One of the essential steps for process improvement is to quickly recognize the starting time or the change point of a process disturbance. Different from the traditional normally distributed assumption for a process, this study considers a process which follows a gamma process. In addition, we consider the possibility of the existence of more than one change point. The proposed approach combines the commonly used X-bar control chart with the Bayesian estimation technique using reversible jump Markov chain Monte Carlo method (RJMCMC) to obtain Bayes estimates. The efficiency of our proposed method is evaluated through a series of simulations. The results show that in many cases if there exist more than one change point, our proposed method is able to estimate the true model. Consequently, if there exist more than one change point in the process we have some chance to estimate the true model which will be helpful to determine and remove the root causes introduced into the process. This method is more flexible than the case we assumed that there is just one change point in the process.  }, Keywords = {Bayesian estimation, gamma process, multiple change points, RJMCMC, X-bar chart.}, volume = {4}, Number = {2}, pages = {203-216}, publisher = {Statistical Research and Training Center - Statistical Centre of Iran}, title_fa = {برآورد بیزی نقطه‌ی تغییر چندگانه در یک فرایند گاما با استفاده از نمودار کنترل X-bar}, abstract_fa ={‌ متصدیان و مسئولان فرایند تولید، همواره به دنبال راهی برای بهبود این فرایند هستند. یکی از گام‌های اساسی در بهبود فرایند این است که به سرعت بتوان زمان خروج فرایند از کنترل یا نقطه‌ی تغییر را برآورد کرد. برخلاف فرض متداول «نرمال بودن» که برای فرایند در نظر گرفته می شود، در این‌جا فرایندی را در نظر می‌گیریم که از توزیع گاما پیروی می‌کند. به‌علاوه در این مقاله امکان وجود چندنقطه‌ی تغییر را نیز در نظر می‌گیریم. با روش پیشنهادی، نمودار کنترل X-bar را مورد استفاده قرار می‌دهیم و برآورد بیزی پارامترها را با استفاده از روش مونت‌کارلوی زنجیر مارکوفی جهشی برگشت‌پذیر به دست می‌آوریم. سپس کارایی روش پیشنهادی را با استفاده از یک سلسله شبیه‌سازی‌ها مورد ارزیابی قرار می‌دهیم. نتایج شبیه‌سازی نشان می‌دهند که در بسیاری مواقع اگر بیش از یک نقطه‌ی تغییر وجود داشته باشد، روش پیشنهادی ما قادر به برآورد کردن مدل واقعی خواهدبود. در نتیجه، در صورت وجود بیش از یک نقطه‌ی تغییر در فرایند،‌ شانس اینرا خواهیم داشت که آن‌ها را کشف کنیم. این کار در یافتن و برطرف کردن عوامل خروج فرایند از کنترل،‌ کمک زیادی می‌کند. بنا بر این،‌ روش مذکور انعطاف‌پذیری بیش‌تری نسبت به حالتی دارد که در آن فقط وجود یک نقطه‌ی تغییر، فرض می شود.}, keywords_fa = {برآورد بیزی, فرایند گاما, نقطه تغییر چندگانه, روش مونت‌کارلوی زنجیر مارکوفی جهشی برگشت‌پذیر, نمودار کنترل}, doi = {10.18869/acadpub.jsri.4.2.203}, url = {http://jsri.srtc.ac.ir/article-1-172-en.html}, eprint = {http://jsri.srtc.ac.ir/article-1-172-en.pdf}, journal = {Journal of Statistical Research of Iran JSRI}, issn = {2538-5771}, eissn = {2538-5763}, year = {2008} } @article{ author = {Bidarbakht-nia, Arman and Maroufy, Vahe}, title = {“Equivalent Linear Composition” as an Efficient Stratification Factor in Multipurpose Surveys}, abstract ={Horticulture survey is a multi-purpose survey which is conducted ad hoc by Statistical Center of Iran (SCI). Availability of survey variables in the sampling frame suggests a multivariate stratification in each province based on its desired variables for acquiring a higher efficiency. There are several ways to stratify the sampling frame considering all stratification variables, such as using sum of observation on all variables, clustering, using first principal component, and specially an almost new method which uses multiple-frame techniques. We introduce, the equivalent linear composition factor, and illustrate how it works more efficiently then the other methods in this particular survey.  }, Keywords = {Stratified sampling, clustering, multiple-frame designs, principal components, equivalent linear composition.}, volume = {4}, Number = {2}, pages = {217-226}, publisher = {Statistical Research and Training Center - Statistical Centre of Iran}, title_fa = {ترکیب خطی هم‌ارز: یک عامل طبقه‌بندی کارا در آمارگیری‌های چندمنظوره}, abstract_fa ={ آمارگیری از باغداری‌ها یک آمارگیری چندمنظوره است که بهصورت «موردی» توسط مرکز آمار ایران اجرا می‌شود. در دسترس بودن اطلاعات مربوط به متغیرهای مورد بررسی این طرح در چارچوب نمونه‌گیری آن، اجرای یک طبقه‌بندی چند متغیره بر اساس متغییرهای مورد نظر هر استان را برای دست‌یابی به کارایی بالاتر ممکن می‌سازد. روش‌های مختلفی برای طبقه‌بندی چارچوب نمونه‌گیری بر اساس همه‌ی متغییرهای طبقه‌بندی وجود دارد، از قبیل استفاده از مقدار کل متغیرها، خوشه‌بندی، استفاده از اولین مؤلفه‌ی اصلی،‌ و به‌طور خاص،‌ یک روش تقریباً جدید که از روش‌های چندچارچوبی بهره می‌گیرد. ما در این مقاله یک عامل طبقه‌بندی به نام ترکیب خطی هم‌ارز معرفی می‌کنیم و همچنین کارایی این روش در مقایسه با روش‌های دیگر را در این آمارگیری نشان می‌دهیم.}, keywords_fa = {نمونه‌گیری طبقه‌بندی‌شده, خوشه‌بندی, طرح‌های چند‌چارچوبی, مؤلفه‌های اصلی, ترکیب خطی هم‌ارز.}, doi = {10.18869/acadpub.jsri.4.2.217}, url = {http://jsri.srtc.ac.ir/article-1-177-en.html}, eprint = {http://jsri.srtc.ac.ir/article-1-177-en.pdf}, journal = {Journal of Statistical Research of Iran JSRI}, issn = {2538-5771}, eissn = {2538-5763}, year = {2008} } @article{ author = {Islam, Rafiqul}, title = {Predicting Population for Male of Rural Area in Bangladesh}, abstract ={ In this paper the population for male of rural area in Bangladesh is predicted by using the geometric growth rate method. The predictions are computed in a three-step procedure. In the first step, the prediction are computed using an exponentail model estimated by Quasi-Newton method for the years 1974, 1981, 1991, and 2001 using the package STATISTICA. Using the cross-validation predictive power (CVPP) criterion and coefficient of determination, the shrinkage coefficient $lambada$  is constructed. The shrinkage coefficient determines the adequacy of the first step prediction. In the second step, these predicted values are used to estimate the growth rate for different age groups by using the geometric growth arte method. In the final step, considering the population for male of rural area in Bangladesh for the census year 2001 as the base population and using the estimated geometric growth rate of the second step estimation, the predictions for the male population of rural area of Bangladesh are estimated for the years 2002 through 2031 by applying geometric growth rate method.}, Keywords = {Male rural population, exponential model, geometric growth rate method, cross-validity predictive power (CVPP), coefficient of determination, shrinkage, F -test. }, volume = {4}, Number = {2}, pages = {227-238}, publisher = {Statistical Research and Training Center - Statistical Centre of Iran}, title_fa = {پیشگویی جمعیت مردان نواحی روستایی بنگلادش}, abstract_fa ={در این مقاله جمعیت مردان نواحی روستایی بنگلادش با استفاده از روش نرخ رشد هندسی پیش‌گویی می شود. پیش‌گویی‌ها طی یک فرایند سه مرحله‌ای محاسبه می‌شوند. در مرحله‌ی اول پیش‌گویی‌ها،‌ با استفاده از مدل ‌نمایی براورد شده به روش شبه‌نیوتون برای سال‌های 1974، 1981، 1991 و 2001 با استفاده از نرم افزار STATISTICA محاسبه می‌شوند. با استفاده از معیار توان پیشگوی اعتبار‌سنجی متقابل (CVPP) و ضریب تعیین،‌ ضریب انقباضی $lambada$ ساخته می‌شود. ضریب انقباضی،‌ کفایت پیش‌گویی مرحله‌ی اول را تعیین می‌کند. در مرحله دوم،‌ این مقادیر پیش‌گویی‌شده،‌ برای براورد کردن نرخ رشد در گروه‌های سنی مختلف با استفاده از روش نرخ رشد هندسی،‌ به کار می‌روند. در مرحله‌ی نهایی با در نظر گرفتن جمعیت مردان نواحی روستایی بنگلادش در سرشماری سال 2001 به‌عنوان جمعیت پایه و استفاده از نرخ‌های رشد هندسی براورد شده در مرحله‌ی دوم براورد، پیش‌گویی‌های جمعیت مردان نواحی روستایی بنگلادش برای سال ‌های 2002 تا 2031 با به‌کارگیری مدل نرخ رشد هندسی براورد می‌شوند.}, keywords_fa = {جمعیت مردان روستایی, مدل نمایی, روش نرخ رشد هندسی, توان پیشگوی اعتبار‌ سنجی متقابل (CVPP), ضریب تعیین, ضریب انقباضی, آزمون F.}, doi = {10.18869/acadpub.jsri.4.2.227}, url = {http://jsri.srtc.ac.ir/article-1-173-en.html}, eprint = {http://jsri.srtc.ac.ir/article-1-173-en.pdf}, journal = {Journal of Statistical Research of Iran JSRI}, issn = {2538-5771}, eissn = {2538-5763}, year = {2008} } @article{ author = {Bidarbakht-nia, Arman and Navvabpour, rez}, title = {Calibration Weighting to Compensate for Extreme Values, Non-response and Non-coverage in Labor Force Survey}, abstract ={Frame imperfection, non-response and unequal selection probabilities always affect survey results. In order to compensate for the effects of these problems, Devill and Särndal (1992) introduced a family of estimators called calibration estimators. In these estimators we look for weights that have minimum distance with design weights based on a distance function and satisfy calibration equations. In this paper after introducing generalized regression estimator, we explain general form of calibration estimators. Then special cases of calibration estimators due to using different distance functions, practical aspects and results of comparing the methods are ... [To continue please click here]}, Keywords = {}, volume = {4}, Number = {1}, pages = {1-14}, publisher = {Statistical Research and Training Center - Statistical Centre of Iran}, title_fa = {وزن‌دهی کالبیده برای جبران مقادیر کرانگین، بی‌پاسخی و ناپوشانش در طرح نیروی کار}, abstract_fa ={استفاده از متغیرهای کمکی مناسب در محاسبه‌ی براوردهای موزون می‌تواند کارایی این براوردها را بهبود بخشد. این نوع براوردها به‌منظور جبران اثر احتمال‌های انتخاب نابرابر، بی‌پاسخی، ناپوشانش، یا نوسان‌های حاصل از نمونه‌گیری حول مقادیر معلوم جامعه به کار می‌روند. ساده‌ترین براوردگرهایی که از اطلاعات کمکی استفاده می‌کنند براوردگرهای رگرسیونی و نسبتی هستند. دویل و سارندال (۱۹۹۲) نشان دادند که براوردگر رگرسیونی را می‌توان به شکل یک براوردگر موزون به دست آورد که وزن‌های آن با مینیمم کردن یک تابع فاصله و به شرط برقراری یک سلسله معادلات کالبیده به دست آمده‌اند. به‌طور کلّی وزن‌هایی را که به این شکل محاسبه می‌شوند، وزن‌های کالبیده، و براوردگرهای حاصل را براوردگرهای کالبیده گویند. در این مقاله ضمن معرفی صورت عام براوردگرهای کالبیده، حالت‌های خاصی از این براوردگرها که حاصل به‌کارگیری تابع‌های فاصله‌ی متفاوت است نیز مورد بررسی قرار می‌گیرد. سپس با استفاده از داده‌های طرح نیروی کار، براورد نرخ بیکاری توسط نظام‌های مختلف وزن‌دهی محاسبه شده، دقت و بار محاسباتی این روش‌های براورد نقطه‌ای با یکدیگر مقایسه می‌شوند.}, keywords_fa = {وزن‌های طرح, بیش‌پوشانش, کم‌پوشانش, بی‌پاسخی, روش‌های وزن‌دهی, آمارگیری نیروی کار.}, doi = {10.18869/acadpub.jsri.4.1.1}, url = {http://jsri.srtc.ac.ir/article-1-178-en.html}, eprint = {http://jsri.srtc.ac.ir/article-1-178-en.pdf}, journal = {Journal of Statistical Research of Iran JSRI}, issn = {2538-5771}, eissn = {2538-5763}, year = {2007} } @article{ author = {Mohammadzadeh, Mohsen and Sharafi, Maryam}, title = {Spatiotemporal Kriging with External Drift}, abstract ={In statistics it is often assumed that sample observations are independent. But sometimes in practice, observations are somehow dependent on each other. Spatiotemporal data are dependent data which their correlation is due to their spatiotemporal locations.Spatiotemporal models arise whenever data are collected across bothtime and space. Therefore such models have to be analyzed in termsof their spatial and temporal structure. Usually a spatiotemporal random field...[ To continue please click here]}, Keywords = {spatiotemporal data, universal kriging, kriging with external drift}, volume = {4}, Number = {1}, pages = {15-28}, publisher = {Statistical Research and Training Center - Statistical Centre of Iran}, title_fa = {کریگیدن فضایی- زمانی با روند برونی}, abstract_fa ={ در آمار فضایی، پیشگویی مقدار نامعلوم یک میدان تصادفی در موقعیت و زمانی مشخص بر اساس مشاهدات، توسط پیشگوی کریگیدنی به‌عنوان بهترین پیشگوی خطی نااریب صورت می‌پذیرد. گاهی در بعضی مسائل کاربردی در هر موقعیت فضایی- زمانی، علاوه بر متغیر مورد بررسی، متغیرهای کمکی دیگری نیز در اختیارند که به‌کارگیری آن‌ها می‌تواند دقت پیشگو را بهبود بخشد. در این مقاله برای استفاده از این‌گونه اطلاعات در تحلیل داده‌های فضایی- زمانی، با استفاده از ایده‌ی کریگیدن فضایی- زمانی عام، روش کریگیدن فضایی- زمانی با روند برونی معرفی شده است. سپس ضمن نمایش نحوه‌ی به‌کارگیری آن در یک مثال کاربردی، تأثیر آن در افزایش دقت پیشگویی فضایی- زمانی مورد بررسی قرار گرفته است.}, keywords_fa = {داده‌های فضایی- زمانی, کریگیدن عام, کریگیدن با روند برونی, دمای هوا.}, doi = {10.18869/acadpub.jsri.4.1.15}, url = {http://jsri.srtc.ac.ir/article-1-183-en.html}, eprint = {http://jsri.srtc.ac.ir/article-1-183-en.pdf}, journal = {Journal of Statistical Research of Iran JSRI}, issn = {2538-5771}, eissn = {2538-5763}, year = {2007} } @article{ author = {Khorashadizadeh, Mohammad and MohtashamiBorzadaran, Rez}, title = {The Structure of Bhattacharyya Matrix in Natural Exponential Family and Its Role in Approximating the Variance of a Statistics}, abstract ={In most situations the best estimator of a function of the parameter exists, but sometimes it has a complex form and we cannot compute its variance explicitly. Therefore, a lower bound for the variance of an estimator is one of the fundamentals in the estimation theory, because it gives us an idea about the accuracy of an estimator. It is well-known in statistical inference that the Cramér-Rao inequality establishes a lower bound for the variance of an unbiased estimator. But one has no idea how sharp the inequality is, i.e., how close the variance is to the lower bound. It states that, under regularity conditions, the variance of any estimator can not be smaller than a certain quantity. An important inequality to follow the Cramér-Rao inequality is that of a Bhattacharyya (1946, 1947). We introduce Bhattacharyya lower bounds for variance of estimator and show that Bhattacharyya inequality achieves a greater lower bound for the variance of an unbiased estimator of a parametric function, and it becomes sharper and sharper as the order of the Bhattacharyya matrix...[To continue please click here]}, Keywords = { natural exponential distributions, Bhattacharyya matrix, Bhattacharyya lower bound, Cramér-Rao lower bound, Fisher information.}, volume = {4}, Number = {1}, pages = {29-46}, publisher = {Statistical Research and Training Center - Statistical Centre of Iran}, title_fa = {ساختار ماتریس باتاچاریا درخانواده‌ی توزیع‌های نمایی طبیعی و نقش آن در تقریب واریانس یک آماره}, abstract_fa ={در بسیاری از مواقع، بهترین برآوردگر تابعی از پارامتر مجهول وجود دارد ولی به‌دلیل پیچیدگی آن نمی‌توان واریانس آن را در قالب یک رابطه‌ی صریح بیان کرد. در این تحقیق با معرفی کران پایین باتاچاریا که مرتبط با ماتریس باتاچاریا است، تقریبی از واریانس آن برآوردگر را بیان می‌کنیم که با افزایش مرتبه‌ی ماتریس باتاچاریا این تقریب، دقیق‌تر خواهد بود. برای خانواده‌ی  توزیع‌های نمایی طبیعی با واریانس درجه‌ی ۲ از $theta$ و همچنین برخی از توزیع‌های خانواده‌ی نمایی طبیعی با واریانس درجه‌ی ۳ از $theta$  با تکیه بر توزیع‌های گاوسی وارون، آبل و تاکاس با شبیه‌سازی و محاسبات عددی نشان داده شده است که کران باتاچاریا به‌عنوان تقریب واریانس آماره، بهتر از کران پایین کرامر- رائو می‌باشد.}, keywords_fa = {خانواده‌ی توزیع‌های طبیعی, ماتریس باتاچاریا, کران پایین باتاچاریا, کران پایین کرامر- رائو, اطلاع فیشر.}, doi = {10.18869/acadpub.jsri.4.1.29}, url = {http://jsri.srtc.ac.ir/article-1-184-en.html}, eprint = {http://jsri.srtc.ac.ir/article-1-184-en.pdf}, journal = {Journal of Statistical Research of Iran JSRI}, issn = {2538-5771}, eissn = {2538-5763}, year = {2007} } @article{ author = {JafariJozani, Mohammad and Jamshidi, Farshi}, title = {Cut-off Sampling Design: Take all, Take Some, and Take None}, abstract ={Extended Abstract. Sampling is the process of selecting units (e.g., people, organizations) from a population of interest so that by studying the sample we may fairly generalize our results back to the population from which they were chosen. To draw a sample from the underlying population, a variety of sampling methods can be employed, individually or in combination. Cut-off sampling is a procedure commonly used by national statistical institutes to select samples. There are different types of cut-off sampling methods employed in practice. In its simplest case, part of the target population is deliberately excluded from selection. For example, in business statistics it is not unusual to cut off (very) small enterprises from the sampling frame. Indeed, it may be tempting not to use resources on enterprises that contribute little to the overall results of the survey. So, in this case, the frame and the sample are typically restricted to enterprises of at least a given size, e.g. a certain number of employees. It is assumed that the contribution of this part of the population is, if not negligible, at least small in comparison with the remaining population. In particular, cut-off sampling is used when the distribution of the values Y1, ..., YN is highly skewed, and no reliable frame exists for the small elements. As explained above, such populations are often found in business surveys. A considerable portion of the population may consist of small business enterprises whose contribution to the total of a variable of interest (for example, sales) is modest or negligible. At the other extreme, such a population often contains some giant enterprises whose inclusion in the sample is virtually mandatory in order not to risk large error in an estimated total. One may decide in such a case to cut off (exclude from the frame, thus from sample selection) the enterprises with few employees, say five or less. The procedure is not recommended if a good frame for the whole population can be constructed without excessive cost. This method may reduce the response burden for these small enterprises. On the other hand, this elementary form of cut-off sampling, which we refer to as type I cut-off sampling, may be considered a dirty method, simply because (i) the sampling probability is set equal to zero for some sampling units and so it can be considered as a type of non-probability sampling design, and (ii) it leads to biased estimates. However, the use of cut-off sampling and its modified versions can be justified by many arguments. Among other one can argue, and justify the use of cut-off sampling, that It would cost too much, in relation to a small gain in accuracy, to construct and maintain a reliable frame for the entire population; Excluding the units of  population that give little contribution to the aggregates to be estimated usually implies a large decrease of the number of units which have to be surveyed in order to get a predefined accuracy level of the estimates; Putting a constraint to the frame population and, as a consequence, to the sample allows to reduce the problem of empty strata; The bias caused by the cut-off is deemed negligible. In this paper we discuss different types of cut-off sampling methods with more emphasize on analyzing type III cut-off sampling which consists of  take all, take some, and take none criteria. Roughly speaking, in our discussed methods, the population is partitioned in two or three strata such that the units in each stratum are treated differently; in particular, a part of the target population is usually excluded a priori from sample selection. We discuss where we should consider cut-off sampling as a permitted method and how to deal with it concerning estimation of the population mean or total using model-based, model-assisted, and design-based strategies. Theoretical results will be given to show how the cut-off thresholds and the sample size should be chosen. Different error sources and their effects on the overall accuracy of our presented estimates are also addressed. The outline of the paper is as follows. In section 2, we briefly discuss different types of cut-off sampling design and some of their properties. In section 3, we first introduce our notations and motivate the use of type III cut-off sampling. We further discuss estimation of the population mean (or total) based on ignoring the population units in ``take none" strata or by modeling them using auxiliary information. We study the problem of ratio estimation of the population mean and type III sample size determination (for given precision of estimation) using design-based,  model-based, and model-assisted strategies.  In this section, we also study the problem of threshold calculation and its approximation using different methods and under different conditions.  Finally, in section 4, we present a simulation study and compare our obtained results with the ones under commonly used cut-off sampling of type I and its modification.}, Keywords = {cut-off threshold, deletion approach, model-based approach, cut-off sampling.}, volume = {4}, Number = {1}, pages = {47-70}, publisher = {Statistical Research and Training Center - Statistical Centre of Iran}, title_fa = {نمونه‌گیری برینشی با الگوی سرشماری، نمونه‌گیری، حذف}, abstract_fa ={ در این مقاله ضمن معرفی انواع روش‌های نمونه‌گیری برینشی، بعضی از دلایل استفاده و کاربرد آن‌ها در آمارگیری‌ها را توضیح می‌دهیم. همچنین روش نمونه‌گیری برینشی با الگوی سرشماری، نمونه‌گیری و حذف را که از آن به‌عنوان روش نمونه‌گیری نوع سوم یاد می‌کنیم مورد مطالعه قرار می‌دهیم. برای این منظور، نخست در براورد پارامتر میانگین (و در نتیجه مجموع) مقادیر صفت Y در جامعه‌ی متناهی N عضوی مورد نظر، چگونگی ارائه‌ی براوردگرهای مطلوب و خواص آن‌ها را در صورت به‌کارگیری روش نمونه‌گیری برینشی نوع سوم توضیح داده، میزان اریبی و واریانس براوردگرهای ارائه‌شده را به دست می‌آوریم. نکته‌ی قابل توجه در این روش، چگونگی برخورد با قسمت حذف‌شده در تعیین دقت براوردهای به دست آمده است که آن را در قالب چند رویکرد توضیح می‌دهیم. در نهایت، مسئله‌ی تعیین آستانه‌ی برش و اندازه‌ی نمونه‌ی بهینه در روش نمونه‌گیری برینشی نوع سوم را توضیح داده، با یک مطالعه‌ی شبیه‌سازی‌شده نتایج به دست آمده را مورد ارزیابی قرار می‌دهیم.}, keywords_fa = { آستانه‌ی برش, رویکرد حذف, رویکرد مدل‌یار, نمونه‌گیری برینشی.}, doi = {10.18869/acadpub.jsri.4.1.47}, url = {http://jsri.srtc.ac.ir/article-1-182-en.html}, eprint = {http://jsri.srtc.ac.ir/article-1-182-en.pdf}, journal = {Journal of Statistical Research of Iran JSRI}, issn = {2538-5771}, eissn = {2538-5763}, year = {2007} } @article{ author = {Zarei, Shaho and Gerami, Abbas and JafariKhaledi, Maji}, title = {Small Area Estimation of the Mean of Household\'s Income in Selected Provinces of Iran with Hierarchical Bayes Approach}, abstract ={Extended Abstract. Small area estimation has received a lot of attention in recent years due to necessity demand for reliable small area statistics. Direct estimator may not provide adequate precision, because sample size in small areas is seldom large enough. Hence, by employing models that can use auxiliary information and area effects in descriptions, one can increase the precision of direct estimators. Due to more readily available level auxiliary information of area, simplicity and possibility of evaluation of the assumptions used by survey data, area level model has become of comprehensive importance, nowadays. Therefore, basic area level models have been extensively studied in this paper to derive empirical best linear unbiased prediction (EBLUP), empirical Bayes (EB), and hierarchical Bayes (HB) with several different assumptions on parameters. Those models are used to obtion the small area estimators, i.e., the mean of household income in several provinces of Iran, including Khorasan-e-Razavi, Hamedan, Lorsetan, and Tehran. To assess small area estimators, we used 1700 urban households who live in those provinces from the data set of the 2006-2007 Household's Income and Expenditure Survey. Some sampling scheme has been utilized. The optimal total sample size has been more than 400 units, but we have only 212 units available. Due to shortage of sample size, we face large MSE's, encountered us with small area problem. There are three measures for comparison of small area methods, including average square error (ASE), average absolute of relative bias (AARB), and average of absolute bias (AAB). We have used two types of transformations, logarithm transformation, and Box-Cox transformation, because of abnormality and heterogeneity of variances. Our data analysis has shown that it is better to use Box-Cox transformation than to use logarithm transformation, i.e., the test statistic is more significant by using this transformation; but Box-Cox transformation causes large sampling variance, which in some cases results in non-convergence in Gibbs algorithm. Likewise, HB approach gives better results than EBLUP and EB. All of these approaches are better than direct estimator, i.e., they have smaller values of ASE, AASB, and AAB.}, Keywords = {small area estimation, area level model, hierarchical Bayes, Gibbs sampling, borrow strength.}, volume = {4}, Number = {1}, pages = {71-90}, publisher = {Statistical Research and Training Center - Statistical Centre of Iran}, title_fa = {مقایسه‌ی برآورد ناحیه‌ی کوچک متوسط درامد خانوار در برخی استان‌های کشور با روش بیز سلسله‌مراتبی}, abstract_fa ={در سال‌های اخیر نیاز به تعیین آمارهایی با دقت لازم برای برآورد پارامترهای توصیفی ناحیه‌ی کوچک به‌شدت افزایش یافته است. در ناحیه‌ی کوچک، برآوردگرهای مستقیم به‌علت اندازه‌ی کم نمونه ممکن است از دقت لازم برخوردار نشوند. از این رو با به‌کارگیری مدل‌ها که قابلیت لحاظ کردن اثرهای ناحیه و اطلاعات کمکی را در تحلیل‌ها دارند، می‌توان دقت برآوردگر مستقیم را افزایش داد. در این میان، مدل سطح ناحیه، به‌علت سادگی و دسترسی آسان به اطلاعات کمکی سطح ناحیه و امکان بررسی فرضیات مورد استفاده به‌وسیله‌ی داده‌های نمونه‌ای، از اهمیت بیش‌تری برخوردار شده است.در این مقاله با به‌کارگیری چنین مدلی، روش بیز سلسله‌مراتبی برای برآورد میانگین درامد چند استان کشور در حالت‌های مختلف مورد استفاده و بررسی قرار گرفته و با برآوردهای به دست آمده از رهیافت بهترین پیشگوی نااریب خطی تجربی و بیز تجربی مقایسه شده است. نتایج این تحقیق به‌طور کلّی برتری رهیافت بیز سلسله‌مراتبی بر دو رهیافت مذکور و برآوردگر مستقیم را نشان می‌دهد.}, keywords_fa = {برآورد ناحیه‌ی کوچک, مدل سطح ناحیه, بیز سلسله‌مراتبی, نمونه‌گیری گیبس, قدرت قرضی.}, doi = {10.18869/acadpub.jsri.4.1.71}, url = {http://jsri.srtc.ac.ir/article-1-180-en.html}, eprint = {http://jsri.srtc.ac.ir/article-1-180-en.pdf}, journal = {Journal of Statistical Research of Iran JSRI}, issn = {2538-5771}, eissn = {2538-5763}, year = {2007} } @article{ author = {Fallah, Afshin and Mohammadzadeh, Mohse}, title = {Probabilistic Linkage of Persian Record with Missing Data}, abstract ={Extended Abstract. When the comprehensive information about a topic is scattered among two or more data sets, using only one of those data sets would lead to information loss available in other data sets. Hence, it is necessary to integrate scattered information to a comprehensive unique data set. On the other hand, sometimes we are interested in recognition of duplications in a data set. The identification of duplications in a data set or the same identities in different data sets is called record linkage. Linkage of data sets that their information is registered in the context of Persian language has special difficulties due to particular writing characteristics of the Persian language such as connectedness of letters in words, existence of different writing versions for some letters and dependency of writing shape of letters to their position in words. In this paper, usual difficulties in linkage of data sets that their information is registered in the context of the Persian language are studied and some solutions are presented. We introduced some compatible methods for preparing and preprocessing of files through standardization, blocking and selection of identifier variables. A new method is proposed for dealing with missing data that is a major problem in real world applications of record linkage theory. The proposed method takes into account the probability of occurrence of missing data. We also proposed an algorithm for increasing the number of comparable fields based on partitioning of composite fields such as address. Finally, the proposed methods are used to link records of establishing censuses in a geographical region in Iran. The results show that taking into account the probability of the occurrence of missing data increases the efficiency of the record linkage process. In addition, using different codes and notations for data registration in different times, leads to information loss. Specially, it is necessary to design a general pattern for writing addresses in Iran, considering geographical and environmental situations.}, Keywords = { record, field, matching, records linkage, likelihood ratio, EM algorithm.}, volume = {4}, Number = {1}, pages = {91-108}, publisher = {Statistical Research and Training Center - Statistical Centre of Iran}, title_fa = {پیوند احتمالاتی رکوردهای فارسی با داده‌های گم‌شده}, abstract_fa ={پیوند رکوردها برای شناسایی واحدهای یکسان در یک یا چند مجموعه‌داده‌ی لاتین در مقالات متعدد مورد بررسی قرار گرفته و روش‌های مناسبی ارائه شده است. اما پیوند رکوردهایی که اطلاعات آن‌ها به‌زبان فارسی ثبت شده است، به‌دلیل ویژگی‌های خاص نوشتارهای فارسی و نبود استاندارد ثبت اطلاعات، با مسائل خاصی مواجه می‌باشد. در این مقاله ضمن معرفی پیوند رکوردها بر اساس یک مدل احتمالاتی، روش‌هایی برای آماده‌سازی فایل‌ها به‌روش استانداردسازی و بلوک‌بندی و انتخاب متغیرهای شناساگر ارائه می‌شوند، که پیوند احتمالاتی رکوردهای فارسی را میسر سازند. برای مقابله با داده‌های گم‌شده که از جمله‌ی مسائل مهم کاربردی در پیوند رکوردها محسوب می‌شوند، روش جدیدی پیشنهاد شده است، که احتمال وجود داده‌های گم‌شده را نیز در مدل پیوند رکوردها لحاظ می‌کند. سپس نحوه‌ی برآورد پارامترهای این مدل با الگوریتم EM ارائه شده است. برای افزایش تعداد فیلدهای قابل مقایسه نیز الگوریتمی مبتنی بر افراز فیلدهای مرکب ارائه گردیده است. سپس نحوه‌ی کاربست روش‌های ارائه‌شده برای پیوند احتمالاتی رکوردهای حاصل از سرشماری‌های کارگاهی در یک منطقه‌ی جغرافیایی ایران، نشان داده شده است.}, keywords_fa = { رکورد, فیلد, انطباق, پیوند رکوردها, نسبت درست‌نمایی, الگوریتم EM.}, doi = {10.18869/acadpub.jsri.4.1.91}, url = {http://jsri.srtc.ac.ir/article-1-179-en.html}, eprint = {http://jsri.srtc.ac.ir/article-1-179-en.pdf}, journal = {Journal of Statistical Research of Iran JSRI}, issn = {2538-5771}, eissn = {2538-5763}, year = {2007} } @article{ author = {TazikehMiyandarreh, Norallah and Hosseini-nasab, Ebrahim}, title = {Functional Analysis of Iranian Temperature and Precipitation by Using Functional Principal Components Analysis}, abstract ={Extended Abstract. When data are in the form of continuous functions, they may challenge classical methods of data analysis based on arguments in finite dimensional spaces, and therefore need theoretical justification. Infinite dimensionality of spaces that data belong to, leads to major statistical methodologies and new insights for analyzing them, which is called functional data analysis (FDA). Dimension reduction in FDA is mandatory, and is partly done by using principal components analysis (PCA). Similar to classical PCA, functional principal components analysis (FPCA) produces a small number of constructed variables from the original data that are uncorrelated and account for most of the variation in the original data set. Therefore, it helps us to understand the underlying structure of the data. Temperature and amount of precipitation are functions of time, so they can be analyzed by FDA. In this paper, we have treated Iranian temperature and precipitation in 2005, extract patterns of variation, explore the structure of the data, and that of correlation between the two phenomena. The data, collected from the weather stations across the country, were discrete and associated with the monthly mean of temperature and precipitation recorded at each station. However, we have first fitted appropriate curves to them in which we have taken smoothing methods into account. Then, we have started analyzing the data using FPCA, and interpreting the results. When estimating the eigenvalues, we have found that the first estimated eigenvalue $hat {theta}$ shows a strong domination of its associated variation on all other kinds. Furthermore, the first two eigenvalues explain more than 98% of the total variation, inwhich their contributions individually were 93.7 and 4.3 percent, respectively. Contributions from others, however, were less than 2 percent. Thus, we have only considered the first two components. The first estimated principal component (PC) shows that the majority of variability among the data can be attributed to differences between summer and winter temperatures. The second PC shows regularity of temperature when moving from winter to summer. In other words, it reflects the variation from the average of the difference between the winter and summer temperatures. Furthermore, bootstrap confidence bands for eigenvalues and eigenfunctions of the real data were obtained. They contain both individual and simultaneous confidence intervals for the eigenvalues. We have also obtained single and double bootstrap bands for the first two eigenfunctions, and seen that they are extremely close to each other, reflecting the high degree of accuracy of the bands that are obtained by the single bootstrap methods.}, Keywords = { Bootstrap confidence bands, data registration, functional data analysis, functional principal components analysis.}, volume = {4}, Number = {1}, pages = {109-128}, publisher = {Statistical Research and Training Center - Statistical Centre of Iran}, title_fa = {تحلیل تابعی دما و بارندگی در ایران با استفاده از مؤلفه‌های اصلی تابعی}, abstract_fa ={وقتی که مشاهدات، توابع پیوسته‌ای از یک متغیر (معمولاً زمان) هستند؛ استفاده از روش‌های متداول در آمار کلاسیک برای تحلیل آن‌ها ممکن است به چالش کشیده شود. بنا بر این برای تحلیل آن‌ها انطباق‌هایی در تئوری‌های موجود، لازم به نظر می‌رسد. چنین اقدامی به رویکرد جدیدی در آمار منتهی می‌شود که به آن تحلیل داده‌های تابعی (FDA) گویند. با توجه به این‌که در این رویکرد، مشاهدات به فضاهای تابعی با بُعد بی‌نهایت متعلق می‌باشند، برای تحلیل آن‌ها ناگزیر به کاهش بُعد هستیم. همانند یک مطالعه‌ی چندمتغیره، یکی از روش‌های متداول برای این کار استفاده از تحلیل مؤلفه‌های اصلی (PCA) می‌باشد. امّااستفاده از PCA برای داده‌های تابعی نیز منوط به انطباق‌هایی در تئوری‌های مربوط و ارائه‌ی آن‌ها برای این‌گونه داده‌ها می‌باشد. این مقاله ابتدا تعاریف و مفاهیم لازم برای بحث PCA در حالت تابعی ارائه می‌شود. سپس به تحلیل داده‌های دما و مقدار بارندگی در ایران و استخراج الگوهای پراکندگی و همبستگی بین این دو پدیده و نیز تفسیر آن‌ها می‌پردازیم. داده‌های موجود که از ایستگاه‌های مختلف هواشناسی در سراسر ایران جمع‌آوری شده‌اند، به‌صورت میانگین ماهانه‌ی دما و مقدار بارندگی در طول سال ۲۰۰۵ بوده‌اند. به‌دلیل ماهیت تابعیِ دما و مقدار بارندگی (تابعی از زمان)، اولین گام در تحلیل آن‌ها به‌روش تابعی، برازش منحنی‌های مناسب به این داده‌های گسسته‌ی اولیه می‌باشد که به آن ثبت نام داده‌ها گویند. از طرف دیگر، مشاهدات اولیه ممکن است با خطا اندازه‌گیری شوند، از این رو لازم است تا نخست با استفاده از یکی از روش‌های هموارسازی به ثبت نام داده‌ها پرداخته، سپس با به‌کارگیری PCA اقدام به تحلیل آن‌ها نمود. در پایان فواصل اطمینان بوت‌استرپی برای مقادیر و توابع ویژه برای داده‌های دما و بارندگی به دست آورده شده است.}, keywords_fa = {تحلیل داده‌های تابعی, تحلیل مؤلفه‌های اصلی تابعی, ثبت نام داده‌ها, فاصله‌ی اطمینان بوت‌استرپی.}, doi = {10.18869/acadpub.jsri.4.1.109}, url = {http://jsri.srtc.ac.ir/article-1-181-en.html}, eprint = {http://jsri.srtc.ac.ir/article-1-181-en.pdf}, journal = {Journal of Statistical Research of Iran JSRI}, issn = {2538-5771}, eissn = {2538-5763}, year = {2007} }