@article{ author = {Zareifard, R. and JafariKhaledi, M.}, title = {Evaluation and Application of the Gaussian-Log Gaussian Spatial Model for Robust Bayesian Prediction of Tehran Air Pollution Data}, abstract ={Air pollution is one of the major problems of Tehran metropolis. Regarding the fact that Tehran is surrounded by Alborz Mountains from three sides, the pollution due to the cars traffic and other polluting means causes the pollutants to be trapped in the city and have no exit without appropriate wind guff. Carbon monoxide (CO) is one of the most important sources of pollution in Tehran air. The concentration of carbon monoxide increases remarkably at the city regions with heavy traffic. Due to the negative effects of this gas on breathing metabolism and people brain activities, the modeling and classifying of the CO amounts in order to control and reduce it, is very noteworthy. For this reason Rivaz et al. (2007) using a Gaussian model presented the space-time analysis of the Tehran air pollution based on the observations from 11 stations for measuring the air pollution. Although assuming the Gaussian observations causes the simplicity of the inferences such as prediction, but often this assumption is not true in reality. One of the outrage factors from normality assumption is the outlying observations. For example in Tehran air pollution issue, the Sorkhe Hesar station indicates very low pollution compare to the other stations due to locating in a forest region. Therefore this observation could be considered as an outlying observation. Whereas the presence of such data causes the thickening of distribution tails and increasing the kurtosis coefficient, therefore in this situation normal distribution which has a narrower tails can not be used. Generally identifying and modeling the outlying observations is one of the main issues that statistician have been faced with since long time ago and many different solutions have been presented so far to overcome the problems arising from such observations. Amongst all these solutions, robust methods can be mentioned (Militino et al., 2006, and Cerioli and Riani, 1999). In these methods with normality observations assumption, the aim is to present a robust analysis. But there might be an outlying observation which belongs to the same pattern of other data. In this case applying those distributions with thicker tails compare to the normal distribution could be useful. This matter was evaluated by Jeffreys (1961) for the first time. Maronna (1976) and Lang et al. (1989) evaluated the verifying maximum likelihood estimation for the model in which the errors imitating the student-t distribution. West (1984) also used the scale mixture of normal distribution families for modeling the outlying observations. Fernandez and Steel (2000) also evaluated the existence of posterior distribution and its moments by introducing the improper prior distributions for West model. In the field of geostatistical data, Palacios and Steel (2006) introduced the extended Gaussian model as below by considering the errors distribution from the scale mixture of normal distributions family....(to countinue here)}, Keywords = {Gaussian-log Gaussian spatial model, robust spatial prediction, Bayesian approach, highest posterior density region, Markov chain Mont Carlo methods, mean square prediction error}, volume = {6}, Number = {1}, pages = {1-24}, publisher = {Statistical Research and Training Center - Statistical Centre of Iran}, title_fa = {ارزیابی و کاربرد مدل فضایی گاوسی- لگ گاوسی برای پیشگویی بیزی استوار داده‌های آلودگی هوای تهران}, abstract_fa ={تحلیل داده‌های فضایی از جمله پیشگویی معمولاً با فرض نرمال بودن داده‌ها انجام می‌شود. این در حالی است که چنین فرضی اغلب در عمل برقرار نمی‌باشد. گاهی اوقات نرمال نبودن داده‌ها از وجود داده‌های دورافتاده ناشی می‌شود. در این حالت پالاسیوس و استیل (۲۰۰۶) تعمیمی از مدل گاوسی تحت عنوان مدل گاوسی-لگ گاوسی پیشنهاد نموده و تحلیل بیزی آن را با استفاده از روش‌های مونت کارلوی زنجیر مارکوفی ارایه کردند. از جمله بر مبنای عامل بیزی به شناسایی داده‌های دورافتاده پرداختند. از آن‌جا که محاسبه‌ی عامل بیزی بسیار دشوار می‌باشد، در این مقاله چگال‌ترین ناحیه‌ی پسینی برای شناسایی داده‌های دورافتاده پیشنهاد می‌شود. چون توزیع پسین دارای فرم بسته‌ای نمی‌باشد، برای تعیین این ناحیه از الگوریتم چن و شو استفاده می‌شود. همچنین بر اساس یک مثال شبیه‌سازی و بکارگیری معیار میانگین مجذور خطای پیشگویی، قابلیت مدل گاوسی-لگ گاوسی برای پیشگویی بیزی استوار نشان داده می‌شود. سپس با استفاده از این مدل، پیشگویی بیزی داده‌های آلودگی هوای شهر تهران ارایه شده و عملکرد آن مورد ارزیابی قرار می‌گیرد.}, keywords_fa = {مدل فضایی گاوسی- لگ گاوسی, پیشگویی فضایی استوار, رهیافت بیزی, چگال‌ترین ناحیه‌ی پسینی, روش‌های مونت کارلوی زنجیر مارکوفی, میانگین مجذور خطای پیشگویی}, doi = {10.18869/acadpub.jsri.6.1.1}, url = {http://jsri.srtc.ac.ir/article-1-105-en.html}, eprint = {http://jsri.srtc.ac.ir/article-1-105-en.pdf}, journal = {Journal of Statistical Research of Iran JSRI}, issn = {2538-5771}, eissn = {2538-5763}, year = {2009} } @article{ author = {Firouzi, Mehdi and Mohammadpour, Adel}, title = {A Survey on Simulating Stable Random Variables}, abstract ={In general case, Chambers et al. (1976) introduced the following algorithm for simulating any stable random variables $ X/sim(alpha, beta, gamma, delta) $ with four parameters. They use a nonlinear transformation of two independent uniform random variables for simulating an stable random variable... (to continue, click here)}, Keywords = {Stable distributions, characteristic function, simulating random variable}, volume = {6}, Number = {1}, pages = {25-36}, publisher = {Statistical Research and Training Center - Statistical Centre of Iran}, title_fa = {مروری بر شبیه‌سازی متغیرهای تصادفی پایدار}, abstract_fa ={از آنجایی که به غیر از توزیع کوشی برای معکوس تابع توزیع یک متغیر تصادفی پایدار، فرم تحلیلی وجود ندارد، برای تولید عدد تصادفی از این توزیع‌ها نمی‌توان از روش تبدیل معکوس استفاده کرد. چمبرز و همکاران (۱۹۷۶) یک روش مستقیم را در حالت کلی برای شبیه‌سازی متغیرهای تصادفی پایدار ارایه کردند. عدم اثبات روابط در مقاله‌ی چمبرز و همکاران (۱۹۷۶) و همچنین استفاده از نمایش‌های مختلف برای تابع مشخصه‌ی توزیع‌های پایدار در مقاله‌ها و نوشته‌های مختلف، باعث رخ دادن برخی ابهامات و اشتباهات در روابط و الگوریتم‌ها شده است. در این مقاله روابط ارایه‌شده برای شبیه‌سازی مستقیم متغیرهای تصادفی پایدار را بررسی کرده و ضمن مقایسه‌ی آن‌ها، ابهامات و اشتباهات رخ داده در برخی از آن‌ها را بیان و تصحیح خواهیم کرد. }, keywords_fa = {توزیع‌های پایدار, تابع مشخصه,شبیه‌سازی متغیر تصادفی}, doi = {10.18869/acadpub.jsri.6.1.25}, url = {http://jsri.srtc.ac.ir/article-1-103-en.html}, eprint = {http://jsri.srtc.ac.ir/article-1-103-en.pdf}, journal = {Journal of Statistical Research of Iran JSRI}, issn = {2538-5771}, eissn = {2538-5763}, year = {2009} } @article{ author = {Chinipardaz, Rahim and Mansoury, Behzad and ShafieiBabaei, Sar}, title = {Discriminant Analysis for ARMA Models Based on Divergency Criterion: A Frequency Domain Approach}, abstract ={The extension of classical analysis to time series data is the basic problem faced in many fields, such as engineering, economic and medicine. The main objective of discriminant time series analysis is to examine how far it is possible to distinguish between various groups. There are two situations to be considered in the linear time series models. Firstly when the main discriminatory information contained in mean function and secnodly when the mean functions are equal and discriminotary information is in the autocovariance functions. The latter case is more interested because the the first case is well documnted. The classical method for discrimation of time series is based on likelihood ratio approach. Using this approach the vector x has to be allocated to H1 or H2 leads to the discriminant function dQ(x)=x-prim(R2-1 -R1-1)x Shumway and Stoffer, 2006) in where x is the the R1 and R2  are the covariance matrices under  H1 and H2  models, respectively. Another approach is based on assessing distance between models. Two important and common distance measuers, Kullback-Leibler information measure, KL, and Chernoff information measure, CH. In this case x is allocated to  H1 or H2 or  depending on disparity measure between the sample spectrum of x and two models (  H1 or H2 ), (see Kakizawa et al., 1998). In this article KL and CH have been adopted to both autoregressive models and moving average models. Three methods, classical method (call Shumway method) has been compared with KL and CH criterions. The peformance of method has been carried out using a numerical study. One hundred time series each of length two hundred points simulated from the first model, say  H1 , and subjected to the discrimination criterion obtained from Kullback-Leibler, KL, and Chernoff, CH, crierions. The number of series that were misclassified out of hundred was noted. The results showed that three method work well for both autoregressive or order of one and moving average order of one models. The miscllasifican rate decreases when the distance between two populations increases. However, the performance of KL method is superior than both CH and Shumway methods.}, Keywords = { ARMA models, spectral analysis, Kullback- Leibler information measure, Chernoff information measuren}, volume = {6}, Number = {1}, pages = {37-56}, publisher = {Statistical Research and Training Center - Statistical Centre of Iran}, title_fa = {ممیزی سری‌های زمانی ARMA مبتنی بر معیارهای واگرایی، روش حوزه‌ی فرکانس}, abstract_fa ={استفاده از معیارهای واگرایی یکی از روش‌های ممیزی در سری‌های زمانی طیفی است. در این مقاله سه معیار کلاسیک آماری کولبک- لیبلر، چرنوف و روش شاموی برای ممیزی بین مدل‌های AR و MA به ‌دست آمده ‌است. سپس با استفاده از روش‌های شبیه‌سازی کارایی سه روش مورد بررسی قرار گرفته است. }, keywords_fa = {مدل‌های ARMA, واگرایی کولبک- لیبلر و چرنوف, سری‌های زمانی طیفی و فاصله‌ی چرنوف}, doi = {10.18869/acadpub.jsri.6.1.37}, url = {http://jsri.srtc.ac.ir/article-1-101-en.html}, eprint = {http://jsri.srtc.ac.ir/article-1-101-en.pdf}, journal = {Journal of Statistical Research of Iran JSRI}, issn = {2538-5771}, eissn = {2538-5763}, year = {2009} } @article{ author = {Jalili, Parvin and Khazaei, Mojtab}, title = {Functional-Coefficient Autoregressive Model and its Application for Prediction of the Iranian Heavy Crude Oil Price}, abstract ={Time series and their methods of analysis are important subjects in statistics. Most of time series have a linear behavior and can be modelled by linear ARIMA models. However, some of realized time series have a nonlinear behavior and for modelling them one needs nonlinear models. For this, many good parametric nonlinear models such as bilinear model, exponential autoregressive model, threshold autoregressive model and GARCH model are commonly used. On analysis of nonlinear time series, when there is no priori information, identification of a parametric nonlinear model, due to expanded nonlinear relation, is very difficult. A suitable substitution for parametric nonlinear models is the use of nonparametric models and their methods of analysis. In this direction various models and methods of analysis are introduced. One of the most important of such models is the functional-coefficient autoregressive (FAR) model. Flexibility of FAR models on fitting to real observation makes this model very useful as an applied methods in modelling economic survey, hydrology, and other related subjects. Many parametric models such as autoregressive model, threshold autoregressive model and exponential autoregressive model may be obtained as special cases of FAR models. In this paper, using Chen and Tsay (1993) and Cai et al. (2000), we introduce FAR model and a method for fitting this model. Also, some methods for prediction of future of the time series using the fitted model are presented. Specially, a bootstrap predictive method for prediction of m-steps ahead of the time series is introduced. Using the bootstrap method point, interval and distribution of predictions are obtained. We use FAR model for modelling of Iranian heavy crude oil price from July 1994 to December 2007. For this aim, using average prediction error criteria we identify a FAR (2,1) model with smoothing parameter h=1.3. This model is fitted using locally linear regression with Epanechnikov kernel. Examination of ability of prediction of the model and performance of the bootstrap prediction show that the fitted model has good performance. We finally use fitted model and bootstrap method for prediction of the first 3 months of 2008 of Iranian heavy crude oil price. Comparesion of these predictions with their real values shows a maximum of absolute differences of $4.75. This was related to March 2008 and it had a relative error of %5 with respect to the real value.}, Keywords = {Functional-coefficient autoregressive model, locally linear regression method, bootstrap method, kernel function, prediction of the oil price}, volume = {6}, Number = {1}, pages = {57-72}, publisher = {Statistical Research and Training Center - Statistical Centre of Iran}, title_fa = {مدل اتورگرسیو ضریب- تابعی و کاربرد آن در پیش‌بینی قیمت نفت خام سنگین ایران}, abstract_fa ={مدل اتورگرسیو ضریب-تابعی یکی از مهم‌ترین مدل‌های ناپارامتری در تحلیل سری‌های زمانی است. انعطاف‌پذیری بالای این مدل در برازش به مشاهدات واقعی سبب کاربرد گسترده این مدل در بررسی‌های اقتصادی، آب‌شناسی و غیره شده است. مدل‌های پارامتری بسیاری مانند مدل اتورگرسیو، مدل اتورگرسیو آستانه‌ای و مدل اتورگرسیو نمائی به‌عنوان حالت‌های خاصی از مدل اتورگرسیو ضریب- تابعی به ‌دست می‌آیند. در این مقاله ضمن آشنایی با این مدل، روش‌های معمول، برای برازش مدل، بررسی کفایت مدل و پیش‌بینی معرفی می‌شوند. یک روش پیش‌بینی خودگردان برای پیش‌بینی m گام بعد معرفی می‌شود که با استفاده از آن می‌توان علاوه بر پیش‌بینی نقطه‌ای، پیش‌بینی فاصله‌ای و توزیع نمونه‌ای پیش‌بین را نیز محاسبه کرد. با استفاده از مدل اتورگرسیو ضریب- تابعی، سری زمانی متوسط قیمت ماهانه‌ی نفت خام سنگین ایران از جولای ۱۹۹۴ تا دسامبر ۲۰۰۷ تحلیل شده ‌است.}, keywords_fa = {مدل اتورگرسیو با ضرایب تابعی, روش رگرسیون خطی موضعی, روش خودگردان, تابع هسته, پیش‌بینی قیمت نفت}, doi = {10.18869/acadpub.jsri.6.1.57}, url = {http://jsri.srtc.ac.ir/article-1-104-en.html}, eprint = {http://jsri.srtc.ac.ir/article-1-104-en.pdf}, journal = {Journal of Statistical Research of Iran JSRI}, issn = {2538-5771}, eissn = {2538-5763}, year = {2009} } @article{ author = {Mireh, Somayeh and aminghafari, Mi}, title = {Some New Methods for Prediction of Time Series by Wavelets}, abstract ={Extended Abstract. Forecasting is one of the most important purposes of time series analysis. For many years, classical methods were used for this aim. But these methods do not give good performance results for real time series due to non-linearity and non-stationarity of these data sets. On one hand, most of real world time series data display a time-varying second order structure. On the other hand, wavelets are well situated for forecasting non-stationary time series since wavelets are local which is very important property to analyze non-stationary time series. To extend stationary processes, slow changes are allowed over time of the second order structure of time series or equivalently the amplitude in spectral representation is allowed to depend on time the spectral representation. Dahlhaus (1997) proposes a minimum distance estimation procedure for non-stationary time series models. Ombao et al. (2002) defined non-stationary processes by changing covariance stationary processes over time. Instead of using windowed Fourier transform (as in Priestley 1965), Nason et al. (2000) introduce the Locally Stationary Wavelet (LSW) processes, using the (non-decimated) wavelet transform and the rescaled time principle. Fryzlewicz et al. (2003) suggest an algorithm to predict LSW processes. This algorithm was used by Van Bellegem and Von Sachs (2002) to model financial log-return series. Forecasting LSW processes arrives to a generalization of the Yule-Walker equations, which can be solved numerically by matrix inversion or standard iterative algorithms such as the innovations algorithm. In the stationary case, these equations reduced to ordinary Yule-Walker equations. In all the above articles, the point wise prediction of discrete time series has been considered, but functional prediction (prediction of an interval) of time series can be considered instead of a point wise prediction since for continuous time series, interval prediction is more suitable than point wise prediction. Antoniadis et al. (2006) propose functional wavelet-kernel smoothing method. This method uses interpolating wavelet transform which is not most popular wavelet transform. The predictor may be seen as a weighted average of the past paths, associating more weight on those paths which are more similar to the present one. Hence, the ‘similar blocks’ are to be found. To summarize, this method is performed in two following steps: 1.We should find within the past paths the ones that are ‘similar’ or ‘close’ to the last observed path. This determines the weights; 2.then we use locally weighted average using obtained weights to predict time series. In this article, after describing mentioned methods, we suggest some extensions to the functional wavelet-kernel method to forecast time series by means of wavelets and then we compare that with several prediction methods. We propose to use two different types of wavelet transform instead of interpolating wavelet transform: discrete wavelet transform (DWT) and non-decimated wavelet transform (NDWT). The first one is an orthogonal wavelet transform while the second one is a redundant transform. These transformations are applied more than interpolating wavelet transform and can be used easily in most of mathematical programming software as S-Plus and MATLAB. We consider the following methods: the methods proposed by Fryzlewics et al. (2003) and Antoniadis et al. (2006), the classical autoregressive model and our two proposed methods. Then, we compare these methods by simulation and real data. We simulate the data from AR(7) (stationary data) and AR(7) contaminated by a sinusoid (non stationary data). We also consider two real data set; Electricity Paris Consumption and El-Nino data. In our comparison, our methods give better results than other compared methods. In this paper we also show that mean square prediction error converges to zero under some conditions when the sample size is large. Reference Antoniadis, A., Paparoditis, E. and Sapatinas, T. (2006). A functional wavelet-kernel approach for continuous-time prediction. J. R. Statist. Soc. B, 68, 837-857. Dahlhaus, R. (1997). Fitting time series models to nonstationary processes. Ann. Statist., 25, 1-37. Fryzlewicz, P., Van Bellegem, S. and von Sachs, R. (2003). Forecasting nonstationary time series by wavelet process modeling. Annals of the Institude of statistical Mathematics, 55, 737-764. Nason, G.P., von Sachs, R. and Kroisandt, G. (2000). Wavelet processes and adaptive estimation of evolutionary wavelet spectra. J. Roy. Statist. Soc. Ser. B, 62, 271-292. Ombao, H., Raz, J., von Sachs, R. and Guo, W. (2002). The SLEX model of a nonstationary random process. Ann. Inst. Statist. Math., 54, 171-200. Priestley, M. (1965). Evolutionary spectra and nonstationary processes. J. Roy. Statist. Soc. Ser. B, 27, 204-237. Van Bellegem, S. and Von Sachs, R. (2002). Forecasting Economic Time Series using Models of Nonstationary (Discussion paper NO. 0227). Institut de statistique, UCL. }, Keywords = { Forecasting, non stationary time series, wavelet, interpolating wavelet, functional wavelet kernel smoothing}, volume = {6}, Number = {1}, pages = {73-92}, publisher = {Statistical Research and Training Center - Statistical Centre of Iran}, title_fa = {ارایه‌ی روش‌هایی جدید برای پیش‌بینی سری‌های زمانی با استفاده از موجک‌ها}, abstract_fa ={سری‌های زمانی مشاهداتی هستند که در طول زمان جمع‌آوری می‌شوند. فراوانی چنین مشاهداتی، تحلیل سری‌های زمانی را به یکی از کاربردی‌ترین شاخه‌های علم آمار تبدیل کرده است. هر چند توصیف رفتار یک سری زمانی از لحاظ تغییرات موضعی و درازمدت در آن، یا مطالعه‌ی وابستگی‌های موجود بین عناصر سری از بررسی‌های متداول است که روی سری‌های زمانی انجام می‌شود، اما می‌توان گفت که مهم‌ترین هدف از تحلیل یک سری زمانی، پیش‌بینی مقادیر آینده‌ی آن است. در علوم کاربردی، با سری‌های زمانی بسیار سر و کار داریم که پیش‌بینی آن‌ها از اهمیت بالایی برخوردار است. در سال‌های اخیر، کاربرد موجک در پیش‌بینی این‌گونه سری‌ها افزایش یافته است که علت آن مزایای قابل توجه موجک می‌باشد. هدف ما در این مقاله، ارایه‌ی روش‌هایی جدید برای پیش‌بینی سری‌های زمانی بر اساس موجک‌ها و مقایسه‌ی این روش‌ها با هم می‌باشد. چندین روش مبنی بر استفاده از موجک‌ها وجود دارد که در اینجا فقط روش‌های هموارسازی تابعی با استفاده از کرنل- موجک (K-W) و برازش مدل خطی فرایند ایستای موضعی (LSW)، مورد بررسی قرار می‌گیرد. در نهایت نیز دو روش که تعمیمی از روش K-W می‌باشند را ارایه می‌دهیم و عملکرد آن‌ها را با روش‌های K-W و LSW و برازش مدل‌های کلاسیک، بررسی می‌نماییم. این مقایسه بر روی داده‌های شبیه‌سازی‌شده و واقعی صورت می‌گیرد.}, keywords_fa = {پیش‌بینی, سری‌های ناایستا, موجک, موجک درون‌یاب, هموارسازی تابعی با استفاده از کرنل- موجک}, doi = {10.18869/acadpub.jsri.6.1.73}, url = {http://jsri.srtc.ac.ir/article-1-107-en.html}, eprint = {http://jsri.srtc.ac.ir/article-1-107-en.pdf}, journal = {Journal of Statistical Research of Iran JSRI}, issn = {2538-5771}, eissn = {2538-5763}, year = {2009} } @article{ author = {MottaghiGolshan, A. and Hosseini-nasab, E. and FaridRohani, R.}, title = {Correlation Pattern between Temperatur, Humidity and Precipitaion by using Functional Canonical Correlation}, abstract ={ Understanding dependence structure and relationship between two sets of variables is of main interest in statistics. When encountering two large sets of variables, a researcher can express the relationship between the two sets by extracting only finite linear combinations of the original variables that produce the largest correlations with the second set of variables. When data are continuous functions of another variable (generally time), the methods of multivariate analysis can not be applied to the data. Therefore, some theoretical justification is needed to provide the required definitions and concepts regarding the essential nature of the data. This leads to difining canonical correlation for pairs of random functions called functional canonical correlation (FCCA). If the data related to functional phenomena, are observed discretely, the first task is to convert these observations to appropriate curves. This is due to functional nature of the phenomena that the data related to. On the other hand, the functional quantity of interest may be measured with error. In such cases, we should first remove the observational error bay taking a smoothing procedure to account. In this paper, Iranian weather data, collected in 2006, are treated by using FCCA. The data set contains discret measurments of three phenomena: temperature,humidity and precipitation and was collected from 102 weather stations. we have fitted continuous curves to the original data, and then extrated the correlation patterns between each pair of the three phenomena.}, Keywords = { Functional data analysis, functional canonical correlation, covariance operator, Hilbert-Schmidt, smoothing}, volume = {6}, Number = {1}, pages = {93-120}, publisher = {Statistical Research and Training Center - Statistical Centre of Iran}, title_fa = {بررسی الگوهای همبستگی دما، رطوبت و بارندگی در ایران با استفاده از تحلیل همبستگی کانونی}, abstract_fa ={یکی از مسایل مورد توجه در تحلیل متغیرهای بردار مقدار، بررسی ساختار همبستگی و ارتباط میان دو مجموعه از چنین متغیرهایی است. هنگامی که دو مجموعه داده، هرکدام شامل تعداد زیادی متغیر باشند، محقق می‌تواند ارتباط میان دو مجموعه را با یافتن تعداد محدودی ترکیب خطی از متغیرهای مجموعه‌ی اول که دارای بیش‌ترین همبستگی با ترکیب خطی از متغیرهای مجموعه‌ی دوم است بیان کند. این روش به تحلیل همبستگی کانونی موسوم است. اگر مشاهدات، توابع پیوسته‌ای از یک متغیر (معمولاً زمان) باشند، نمی‌توان روش‌های موجود برای تحلیل داده‌های چندمتغیره را برای تحلیل آن‌ها به‌کار گرفت. بنا بر این برخی انطباق‌ها در تعاریف و مفاهیم با در نظر گرفتن ماهیت داده‌ها لازم به نظر می‌رسد. این امر به تعریف همبستگی کانونی برای جفت توابع تصادفی منجر می‌شود که به آن همبستگی کانونی تابعی گویند (FCCA). در این مقاله، داده‌های آب و هوای ایران در سال ۲۰۰۶ با استفاده از FCCA مورد تحلیل قرار گرفته است. مجموعه داده‌های مورد بررسی شامل مقادیر گسسته سه پدیده‌ی دما، رطوبت و بارندگی است که از ۱۰۲ ایستگاه هواشناسی جمع‌آوری شده‌اند. در تحلیل این داده‌ها، ابتدا منحنی‌های مناسب به داده‌های اولیه برازش و سپس الگوهای همبستگی میان هر جفت از سه پدیده شناسایی و استخراج شده است.}, keywords_fa = {تحلیل داده‌های تابعی, همبستگی کانونی تابعی, عملگر کوواریانس, عملگر هیلبرت اشمیت, هموارسازی}, doi = {10.18869/acadpub.jsri.6.1.93}, url = {http://jsri.srtc.ac.ir/article-1-100-en.html}, eprint = {http://jsri.srtc.ac.ir/article-1-100-en.pdf}, journal = {Journal of Statistical Research of Iran JSRI}, issn = {2538-5771}, eissn = {2538-5763}, year = {2009} } @article{ author = {Safakish, Mohadese and Navvabpour, rez}, title = {Empirical Likelihood Approach and its Application on Survival Analysis}, abstract ={A number of nonparametric methods exist when studying the population and its parameters in the situation when the distribution is unknown. Some of them such as "resampling bootstrap method" are based on resampling from an initial sample. In this article empirical likelihood approach is introduced as a nonparametric method for more efficient use of auxiliary information to construct confidence regions. In empirical likelihood approach a Lagrange multipliers method is applied to estimate ...(to countinue here)}, Keywords = {Empirical likelihood, estimating equation, Kaplan-Meier estimator, median regression, right censored, profile empirical likelihood, empirical likelihood bootstrap method}, volume = {6}, Number = {1}, pages = {121-139}, publisher = {Statistical Research and Training Center - Statistical Centre of Iran}, title_fa = {رهیافت درستنمایی تجربی وکاربرد آن در تحلیل بقا}, abstract_fa ={در بیش‌تر مطالعه‌هایی که صورت می‌گیرد، علاقه‌مند به استنباط درباره‌ی توزیع جامعه و پارامترهای آن هستیم. از جمله روش‌های معمول برای براورد پارامترهای جامعه -زمانی‌که توزیع معلوم است- روش ماکسیمم درستنمایی است. براوردهای حاصل از این روش در حالت حدی ویژگی‌های مطلوب بسیاری دارند. نااریبی، واریانس مینیمم و توزیع نرمال به همراه روش دلتا استنباط پیرامون براوردگرها و توابع آن‌ها را میسر می‌سازد. در صورت نا‌شناخته بودن توزیع جامعه، روش‌های ناپارامتری بسیاری وجود دارند. برخی از این روش‌ها مانند روش بازنمونه‌گیری خودگردان، بر پایه‌ی تکرار نمونه‌گیری از یک نمونه‌ی اولیه پایه‌ریزی شده‌اند. در این مقاله رهیافت نا‌پارامتری درستنمایی تجربی به‌منظور استفاده‌ی بهتر از اطلاعات کمکی برای استنباط درباره‌ی پارامترهای جامعه معرفی و چگونگی ساختن ناحیه‌ی اطمینان با استفاده از آن بیان می‌شود. همچنین استفاده از این روش در براورد مدل رگرسیون میانه‌ی زمان شکست در حضور داده‌های سانسور شده از راست نشان داده می‌شود و ناحیه‌ی اطمینان بردار پارامترهای مدل و زیرمجموعه‌ی دلخواه از آن‌ها به دست می‌آید. سرانجام مدل رگرسیون میانه‌ی طول عمر برای مجموعه‌ی داده‌های مربوط به بیماران مبتلا به سرطان مغز استخوان براورد می‌شود. همچنین ناحیه‌ی اطمینان برای بردار پارامترها و بازه‌های اطمینان برای تک تک ضریب‌های رگرسیونی به دست می‌آید.}, keywords_fa = {درستنمایی تجربی, معادله‌ی براورد, براوردگر کاپلان- مه‌یر, رگرسیون میانه, سانسور از راست, درستنمایی تجربی نیم‌رخ, روش خودگردان درستنمایی تجربی}, doi = {10.18869/acadpub.jsri.6.1.121}, url = {http://jsri.srtc.ac.ir/article-1-106-en.html}, eprint = {http://jsri.srtc.ac.ir/article-1-106-en.pdf}, journal = {Journal of Statistical Research of Iran JSRI}, issn = {2538-5771}, eissn = {2538-5763}, year = {2009} } @article{ author = {Hosseinkashi, Yasaman and Shafie, Khalil}, title = {Persian Handwriting Analysis Using Functional Principal Components}, abstract ={Principal components analysis is a well-known statistical method in dealing with large dependent data sets. It is also used in functional data for both purposes of data reduction as well as variation representation. On the other hand "handwriting" is one of the objects, studied in various statistical fields like pattern recognition and shape analysis. Considering time as the argument, the handwriting would be an infinite dimensional data; a functional object. In this paper we try to use the functional principal components analysis (FPCA) to the Persian handwriting data, analyzing the word Mehr which is the Persian term for Love.}, Keywords = {Principal components analysis, functional data analysis, B-spline smoothing, on-line handwriting}, volume = {6}, Number = {2}, pages = {141-160}, publisher = {Statistical Research and Training Center - Statistical Centre of Iran}, title_fa = {تحلیل دستخط فارسی با استفاده از مؤلفه‌های اصلی تابعی}, abstract_fa ={یکی از روش‌های متداول در تحلیل داده‌های چندبعدی عبارت است از تحلیل مؤلفه‌های اصلی. همچنین از این روش برای مطالعه‌ی پراکندگی و کاهش حجم داده‌های تابعی نیز استفاده می‌شود. از طرف دیگر، یکی از داده‌هایی که معمولاً با روش‌های غیر تابعی مانند تحلیل شکل مورد بررسی قرار می‌گیرد داده‌ی مربوط به «دستخط» می‌باشد. با اضافه کردن عامل زمان، «دستخط» تبدیل به یک داده با بعد بی‌نهایت یا به عبارتی یک داده‌ی تابعی می‌شود. در این مقاله یک نمونه از داده‌های تابعی دستخط فارسی، مربوط به کلمه‌ی «مهر»، به روش تحلیل مؤلفه‌های اصلی تابعی مورد مطالعه قرار گرفته است.}, keywords_fa = {تحلیل مؤلفه‌های اصلی تابعی, تحلیل داده‌های تابعی, داده‌های دستخط, تحلیل مؤلفه‌های اصلی تابعی دومتغیره}, doi = {10.18869/acadpub.jsri.6.2.141}, url = {http://jsri.srtc.ac.ir/article-1-114-en.html}, eprint = {http://jsri.srtc.ac.ir/article-1-114-en.pdf}, journal = {Journal of Statistical Research of Iran JSRI}, issn = {2538-5771}, eissn = {2538-5763}, year = {2010} } @article{ author = {Morabbi, H. and Razmkhah, M.}, title = {Entropy of Hybrid Censoring Schemes}, abstract ={A hybrid censoring scheme is a mixture of type I and type II censoring schemes. When $n$ items are placed on a life test, the experiment terminates under type I or type II hybrid censoring scheme if either a pre-fixed censoring time T or the rth (1<=r<=n is fixed) failure is first or later observed, respectively. In this paper, we investigate the decomposition of entropy in both hybrid censoring schemes. Entropy of type I hybrid censoring scheme is formulated and in order to determining the entropy of type II hybrid censoring scheme the available information are used. The results are then applied to some common life time distributions as illustrative examples. Finally, maximum entropy of the mentioned censoring schemes is discussed.}, Keywords = {Order statistics, entropy change, maximum entropy, exponential distribution, Weibull distribution, Pareto distribution, hazard rate function}, volume = {6}, Number = {2}, pages = {161-176}, publisher = {Statistical Research and Training Center - Statistical Centre of Iran}, title_fa = {آنتروپی طرح‌های سانسور هیبرید}, abstract_fa ={یک طرح سانسور هیبرید تلفیقی از سانسورهای نوع یک و دو است. وقتی که  nکالا در یک آزمایش طول عمر قرار گیرند و آزمایش زمانی خاتمه یابد که کمینه‌ی (یا بیشینه‌ی) زمان rامین شکست و زمان از پیش تعیین‌شده‌ی T رخ دهد، در حقیقت سانسور هیبرید نوع یک (یا هیبرید نوع دو) انجام شده است. در این مقاله تجزیه‌ی آنتروپی را در هر دو طرح سانسور هیبرید مورد بررسی قرار می‌دهیم. آنتروپی طرح سانسور هیبرید نوع یک فرموله شده و به‌منظور تعیین آنتروپی طرح سانسور هیبرید نوع دو از اطلاعات موجود استفاده شده است. به‌عنوان چند مثال توضیحی، نتایج به دست آمده روی چند توزیع طول عمر رایج به کار برده شده است. در پایان در مورد ماکسیمم آنتروپی طرح‌های سانسور مورد بررسی، بحث شده است. }, keywords_fa = {آماره‌های ترتیبی, تغییر آنتروپی, ماکسیمم آنتروپی, توزیع نمایی, توزیع وایبل, توزیع پارتو, تابع نرخ خطر}, doi = {10.18869/acadpub.jsri.6.2.161}, url = {http://jsri.srtc.ac.ir/article-1-111-en.html}, eprint = {http://jsri.srtc.ac.ir/article-1-111-en.pdf}, journal = {Journal of Statistical Research of Iran JSRI}, issn = {2538-5771}, eissn = {2538-5763}, year = {2010} } @article{ author = {Harandi, Fatemeh and Javadi, Maryam and Golchi, Shiri}, title = {Influence of Personal Features on the Change of Individual\'s Decision about Presence or Absence in the Labor Force (A Gender Analysis on the Basis of Panel Data of Iran)}, abstract ={One of the factors which influence individual's decision for presence or absence in the labor force is their personal features. In order to take appropriate policies to create employment and remove its obstacles in the countries labor market, we need to know the factors mentioned above and determine the amount and direction in which each factor influences the probability of individual's presence in the labor force. The objective of this study is to determine how personal features influence persons' decision on entering or leaving the labor market, during a one year period, for whole working age population, males and females. To achieve such objectives, using the panel data corresponding to spring 2005 and 2006 of the labor force survey conducted by the Statistical Centre of Iran, we distinguished the two subpopulation: active and inactive people in working age in 2005 and followed their economic activity status in 2006. To determine the effective factors on the change of individuals activity status during a one-year period, we used a logit model and took advantage of the odds ratios to interpret the results of the model. The results of the study shows that substantial differences exist between men and women in terms of the stability of presence or absence in the labor force in a one-year period, however the amount of stability is also influenced by the individual features in both groups. The important finding of this paper is that not only the probability of inactive females entering the labor market is less than that for males, but also for women who are already in the labor market, the probability of leaving the market is more than that for men. However, the probability of returning to the labor market for women is also larger than that for men.}, Keywords = {Gender analysis, labor force, longitudinal study, panel data}, volume = {6}, Number = {2}, pages = {177-192}, publisher = {Statistical Research and Training Center - Statistical Centre of Iran}, title_fa = {تأثیر ویژگی‌های فردی بر تغییر تصمیم فرد در رابطه با حضور یا عدم حضور در نیروی کار (تحلیلی جنسیتی بر پایه‌ی‌ داده‌های پانلی ایران)}, abstract_fa ={از جمله عواملی که بر تصمیم افراد برای حضور یا عدم حضور در نیروی کار تأثیر می‌گذارند، ویژگی‌های فردی آن‌ها است. اتخاذ سیاست‌های مناسب برای ایجاد و رفع موانع اشتغال در بازار کار کشور، نیازمند شناخت عوامل مذکور و تعیین میزان و جهت تأثیر هر یک بر احتمال حضور افراد در نیروی کار است. هدف از این مطالعه، تعیین چگونگی تأثیر ویژگی‌های فردی بر تصمیم افراد برای ورود به بازار کار یا ترک آن، طی یک ‌سال، برای کل جمعیت در سن کار، مردان و زنان است. به این منظور با استفاده از داده‌های پانلی آمارگیری نیروی کار مرکز آمار ایران در فصل بهار ۱۳۸۴ و ۱۳۸۵، دو جامعه‌ی افراد فعال و افراد غیر فعال در سن کار در سال ۱۳۸۴ مشخص و وضع فعالیت اقتصادی آن‌ها در سال ۱۳۸۵ دنبال گردید. برای تعیین عوامل مؤثر بر تغییر وضع فعالیت افراد طی دوره‌ی یک‌ساله‌ی مذکور از مدل لوجیت و برای تفسیر نتایج مدل از نسبت بخت‌ها استفاده گردید. نتایج حاصل از این مطالعه، حاکی از آن است که تفاوت‌های اساسی بین زنان و مردان از جهت میزان ثبات حضور یا عدم حضور در نیروی کار در یک دوره‌ی یک‌ساله وجود دارد، هر چند میزان مزبور در هر دو گروه تحت تاثیر ویژگی‌های فردی آن‌ها قرار دارد. یافته‌ی مهمی که از این مطالعه حاصل گردید این است که نه تنها احتمال ورود زنان غیر فعال به بازار کار بسیار کم‌تر از مردان است بلکه برای زنانی که در بازار کار حضور دارند نیز احتمال ترک این بازار بسیار بیش‌تر از مردان است، هر چند احتمال بازگشت دوباره‌ی آن‌ها به بازار کار نیز بیش از مردان است. }, keywords_fa = {تحلیل جنسیتی, نیروی کار, مطالعه‌ی طولی, داده‌ی پانلی}, doi = {10.18869/acadpub.jsri.6.2.177}, url = {http://jsri.srtc.ac.ir/article-1-110-en.html}, eprint = {http://jsri.srtc.ac.ir/article-1-110-en.pdf}, journal = {Journal of Statistical Research of Iran JSRI}, issn = {2538-5771}, eissn = {2538-5763}, year = {2010} } @article{ author = {Mahmoudvand, Rahim and Edalati, rez}, title = {On the Distribution of Discounted Collective Risk Model}, abstract ={We study the distribution of discounted collective risk model where the counting process is Poisson. For the model considered here, we obtain mean, variance and moment generating function (m.g.f) of the model. To do this, we use two approaches. In the first approach we use classical methods to obtain the mean and variance. In the second approach we introduce some proper martingale and then we obtain the m.g.f of total loss by features of martingales. Additionally, we use Fast Fourier Transform to numerically calculate the distribution of discounted collective risk model.}, Keywords = {Discounted collective risk model, Poisson process, Martingale}, volume = {6}, Number = {2}, pages = {193-208}, publisher = {Statistical Research and Training Center - Statistical Centre of Iran}, title_fa = {نکاتی در خصوص توزیع مدل ریسک جمعی تنزیل‌یافته}, abstract_fa ={در این مقاله توزیع مدل ریسک جمعی تنزیل‌یافته با در نظر گرفتن توزیع پواسون، به‌عنوان توزیع فرایند شمارشی، مورد مطالعه قرار گرفته است. برای مدل در نظر گرفته‌شده در این مقاله، میانگین، واریانس و تابع مولد گشتاورها به دست آمده است. بدین منظور دو رهیافت متفاوت مورد استفاده قرار گرفت. در رهیافت اول با استفاده از روش‌های کلاسیک به محاسبه‌ی میانگین و واریانس کل زیان پرداخته شده است؛ در حالی‌که در رهیافت دوم با تعریف مارتینگل‌های مناسب، تابع مولد گشتاورهای کل زیان محاسبه شده است. علاوه بر این تابع چگالی مجموع زیان با استفاده از تبدیل فوریه برای یک مثال به‌صورت عددی به دست آمده است.}, keywords_fa = {مدل ریسک جمعی تنزیل‌یافته, فرایند پواسون, مارتینگل}, doi = {10.18869/acadpub.jsri.6.2.193}, url = {http://jsri.srtc.ac.ir/article-1-109-en.html}, eprint = {http://jsri.srtc.ac.ir/article-1-109-en.pdf}, journal = {Journal of Statistical Research of Iran JSRI}, issn = {2538-5771}, eissn = {2538-5763}, year = {2010} } @article{ author = {AbdEllah, H. and A.Ahmad, Abd El-Baset and A.Fawzy, Mohamm}, title = {Recurrence Relations for Moment Generating Functions of Generalized Order Statistics Based on Doubly Truncated Class of Distributions}, abstract ={In this paper, we derived recurrence relations for joint moment generating functions of nonadjacent generalized order statistics (GOS) of random samples drawn from doubly truncated class of continuous distributions. Recurrence relations for joint moments of nonadjacent GOS (ordinary order statistics (OOS) and k-upper records (k-RVs) as special cases) are obtained. Single and product moment generating functions (moments) of nonadjacent GOS are derived. Doubly truncated new modified Weibull (Weibull, Extreme-value, exponential and Rayleigh), three Burr type XII (Lomax) and inverse Weibull distributions, among others, arise as special cases of this doubly truncated class. Two applications are introduced, the first is the characterizations for members of the class based on recurrence relations for moments of GOS, OOS and k-RVs. As the second application we found Tables of single and product moments of OOS from doubly truncated Lomax distribution.}, Keywords = {Generalized order statistics, recurrence relations, moment generating functions, order statistics, k-records, characterizations, truncated distributions.}, volume = {6}, Number = {2}, pages = {209-230}, publisher = {Statistical Research and Training Center - Statistical Centre of Iran}, title_fa = {رابطه‌های بازگشتی برای تابع‌های مولد گشتاور آماره‌های ترتیبی تعمیم‌یافته بر اساس رده‌ی توزیع‌های بریده‌ی دوگانه}, abstract_fa ={در این گزارش، رابطه‌های بازگشتی برای تابع‌های مولد گشتاور توأم آماره‌های ترتیبی تعمیم‌یافته‌ی (Generalized Order Statistics: GOS) نامجاور نمونه‌های تصادفی را که از روی رده‌ی توزیع‌های پیوسته‌ی بریده قرعه‌کشی شده‌اند به دست آورده‌ایم. رابطه‌های بازگشتی برای گشتاور توأم GOS نامجاور (آماره‌های ترتیبی عادی [Ordinary Order Statistics: OOS] و -kرکورد بالا(k-RVs)  به‌عنوان موردهای خاص) به دست آمده‌اند. تابع‌های مولد گشتاور (گشتاورهای) تکی و حاصل ‌ضربی برای GOS نامجاور به دست آمده‌اند. توزیع‌های وایبول بریده‌ی دوگانه‌ی تعدیل‌یافته‌ی جدید (توزیع‌های وایبول، توزیع‌های مقدار کرانگین، توزیع‌های نمایی و توزیع‌های ریلی)، سه توزیع نوع XII بِر (توزیع لوماکس) و توزیع‌های وایبول وارون از جمله‌ی سایر توزیع‌ها به‌عنوان موردهای ویژه‌ای از این رده‌ی بریده‌ی دوگانه ظاهر می‌شوند. دو کاربرد ارایه شده‌اند. اولی مشخص‌سازی‌هایی برای اعضای رده بر مبنای رابطه‌های بازگشتی برای گشتاورهای GOS، OOS و k-RVها است. به‌عنوان دومین کاربرد، جدول‌های گشتاورهای تکی و حاصل ‌ضربی OOS را از روی توزیع بریده‌ی دوگانه‌ی لوماکس به دست آورده‌ایم. }, keywords_fa = {آماره‌های ترتیبی تعمیم‌یافته, رابطه‌های بازگشتی, تابع‌های مولد گشتاور, آماره‌های ترتیبی, -kرکورد, مشخص‌سازی‌ها, توزیع‌های بریده}, doi = {10.18869/acadpub.jsri.6.2.209}, url = {http://jsri.srtc.ac.ir/article-1-108-en.html}, eprint = {http://jsri.srtc.ac.ir/article-1-108-en.pdf}, journal = {Journal of Statistical Research of Iran JSRI}, issn = {2538-5771}, eissn = {2538-5763}, year = {2010} } @article{ author = {Bahrami, Wahab and Agahi, Hamzeh and Rangin, Hojat}, title = {A Two-parameter Balakrishnan Skew-normal Distribution}, abstract ={In this paper, we discuss a generalization of Balakrishnan skew-normal distribution with two parameters that contains the skew-normal, the Balakrishnan skew-normal and the two-parameter generalized skew-normal distributions as special cases. Furthermore, we establish some useful properties and two extensions of this distribution. }, Keywords = {Skew-normal distribution, Balakrishnan skew-normal distribution, orthant probability, moment generating function}, volume = {6}, Number = {2}, pages = {231-242}, publisher = {Statistical Research and Training Center - Statistical Centre of Iran}, title_fa = {توزیع چوله- ‌نرمال بالاکریشنان دوپارامتره}, abstract_fa ={در این مقاله تعمیمی از توزیع چوله-نرمال بالاکریشنان با دو پارامتر مورد بررسی قرار می‌گیرد که توزیع‌های چوله- ‌نرمال، چوله-‌ نرمال بالاکریشنان و چوله-‌نرمال تعمیم‌یافته‌ی دوپارامتره حالت‌هایی خاص از این توزیع هستند. همچنین چند ویژگی مفید و دو تعمیم از این توزیع مورد بررسی قرار می‌گیرد.}, keywords_fa = {توزیع چوله-نرمال, توزیع چوله-نرمال بالاکریشنان, احتمال همه‌مثبت, تابع مولد گشتاور}, doi = {10.18869/acadpub.jsri.6.2.231}, url = {http://jsri.srtc.ac.ir/article-1-112-en.html}, eprint = {http://jsri.srtc.ac.ir/article-1-112-en.pdf}, journal = {Journal of Statistical Research of Iran JSRI}, issn = {2538-5771}, eissn = {2538-5763}, year = {2010} } @article{ author = {JabbariNooghabi, H.}, title = {Almost Sure Convergence of Kernel Bivariate Distribution Function Estimator under Negative Association}, abstract ={Let {Xn ,n=>1} be a strictly stationary sequence of negatively associated random variables, with common distribution function F. In this paper, we consider the estimation of the two-dimensional distribution function of (X1, Xk+1) for fixed $K /in N$ based on kernel type estimators. We introduce asymptotic normality and properties and moments. From these we derive the optimal bandwidth convergence rate, which is of order n-1. Besides of some usual conditions on the kernel function, the conditions typically impose a convenient increase rate on the covariances cov(X1,Xn).}, Keywords = {Almost sure convergence, bivariate distribution function, kernel estimation, negative association, stationarity}, volume = {6}, Number = {2}, pages = {243-255}, publisher = {Statistical Research and Training Center - Statistical Centre of Iran}, title_fa = {نرخ همگرایی تقریباً حتمی برای براوردگر هسته‌ی تابع توزیع دومتغیره‌ی متغیرهای تصادفی پیوندی منفی}, abstract_fa ={از موضوعات مورد نظر، براورد تابع توزیع دومتغیره‌ی (X1,Xk+1) به ازای تأخیر ثابت k است. در این مقاله این تابع توسط براوردگر هسته، تخمین زده می‌شود. نرخ همگرایی براوردگر هسته‌ی تابع توزیع دومتغیره برای این متغیرها، برخی از خواص مجانبی آن همانند نرمال بودن مجانبی توزیع براوردگر از جمله سایر اهداف این مقاله است.}, keywords_fa = {همگرایی تقریباً حتمی, تابع توزیع دومتغیره, براوردیابی هسته, پیوند منفی, مانایی}, doi = {10.18869/acadpub.jsri.6.2.243}, url = {http://jsri.srtc.ac.ir/article-1-113-en.html}, eprint = {http://jsri.srtc.ac.ir/article-1-113-en.pdf}, journal = {Journal of Statistical Research of Iran JSRI}, issn = {2538-5771}, eissn = {2538-5763}, year = {2010} }