Feedback

Analisis Transformasi Box Cox Untuk Mengatasi Heteroskedastisitas Dalam Model Regresi Linier Sederhana.

Informasi dokumen
ANALISIS TRANSFORMASI BOX COX UNTUK MENGATASI HETEROSKEDASTISITAS DALAM MODEL REGRESI LINIER SEDERHANA SKRIPSI DESRI KRISTINA S 070803055 DEPARTEMEN MATEMATIKA FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS SUMATERA UTARA MEDAN 2011 Universitas Sumatera Utara ANALISIS TRANSFORMASI BOX COX UNTUK MENGATASI HETEROSKEDASTISITAS DALAM MODEL REGRESI LINIER SEDERHANA SKRIPSI Diajukan untuk melengkapi tugas dan memenuhi syarat mencapai gelar Sarjana Sains DESRI KRISTINA S 070803055 DEPARTEMEN MATEMATIKA FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS SUMATERA UTARA MEDAN 2011 Universitas Sumatera Utara PERSETUJUAN Judul Kategori Nama Nomor Induk Mahasiswa Program Studi Departemen Fakultas : ANALISIS TRANSFORMASI BOX COX UNTUK MENGATASI HETEROSKEDASTISITAS DALAM MODEL REGRESI LINIER SEDERHANA : SKRIPSI : DESRI KRISTINA S : 070803055 : SARJANA (S1) MATEMATIKA : MATEMATIKA : MATEMATIKA DAN ILMU PENGETAHUAN ALAM (FMIPA) UNIVERSITAS SUMATERA UTARA Diluluskan di Medan, Juni 2011 Komisi Pembimbing : Pembimbing 2 Pembimbing 1 Drs. Rachmad Sitepu, M.Si NIP. 19530418 198703 1 001 Drs. Open Darnius, M.Sc NIP.19641014 199103 1 004 Diketahui/ Disetujui oleh: Departemen Matematika FMIPA USU Ketua, Prof. Dr. Tulus, M.Si. NIP.196210901 198803 1 002 Universitas Sumatera Utara PERNYATAAN ANALISIS TRANSFORMASI BOX COX UNTUK MENGATASI HETEROSKEDASTISITAS DALAM MODEL REGRESI LINIER SEDERHANA SKRIPSI Saya mengakui bahwa skripsi ini adalah hasil kerja saya sendiri, kecuali beberapa kutipan dan ringkasan yang masing-masing disebutkan sumbernya. Medan, Juni 2011 DESRI KRISTINA S 070803055 Universitas Sumatera Utara PENGHARGAAN Segala hormat dan pujian syukur hanya kepada Tuhan Yang Maha Kuasa karena kasihNya yang sungguh besar yang senantiasa memberi pertolongan dan kekuatan, tuntunan bagi penulis untuk mengerjakan skripsi ini sampai waktu yang telah ditetapkan. Dalam kesempatan ini penulis mengucapkan terimakasih kepada Drs. Open Darnius, M.Sc dan Drs. Rachmad Sitepu, M.Si sebagai dosen pembimbing yang telah memberikan hati dan waktunya untuk mengarahkan dan memberikan masukan kepada penulis dalam menyelesaikan skripsi ini. Penulis juga mengucapkan terima kasih kepada Drs. Pangarapen Bangun, M.Si dan Drs. Ujian Sinulingga, M.Si selaku Dosen penguji yang juga membantu penulis selama pengerjaan skripsi ini. Ucapan terimakasih juga penulis tujukan kepada Dr. Sutarman, M.Sc selaku Dekan FMIPA USU, Ketua dan Sekretaris Departemen Matematika FMIPA USU yaitu Prof. Dr. Tulus, M.Si dan Dra. Mardiningsih, M.Si dan kepada Bapak Ibu dosen beserta semua Staf Administrasi di FMIPA USU. Penulis juga mengucapkan terima kasih kepada kedua orang tua tercinta Bapak M.Silalahi dan Ibu L.br.Situmorang atas semua dukungan dalam doa, motivasi, kasih sayang, serta semua dukungan materil dan moril yang membantu penulis dalam menyelesaikan skripsi ini. Juga kepada adik-adik yang saya kasihi Marno, Luri, Wenny dan Mario. Penulis juga mengucapkan terima kasih kepada sahabat – sahabat yang telah mendukung saya, terkhusus buat KTB Florence (K’Tiur, Dewi, Anita, Riris dan Rolina) dan adik – adik tercinta KK Evangelium. Terima kasih atas semua doa dan dukungannya. Tak lupa juga penulis mengucapkan terima kasih kepada semuanya teman-teman di Math’07 (tidak muat jika disebutkan namanya satu per satu) atas kebersamaan kita selama ini, atas doa dan saling mendukung diantara kita. Semangat dan doa dari teman-teman juga sangat membantu penulis dalam menyelesaikan skripsi ini. Terimakasih juga buat teman-teman kost 24, juga teman-teman penulis di Sibolga serta keluarga tulang di Helvetia, keluarga Namboru di Sidikalang atas kebaikan, doa dan kasihnya. Akhir kata penulis mengucapkan terimakasih kepada semua pihak yang belum disebutkan namanya yang telah membantu penulis dalam menyelesaikan skripsi ini, biarlah kasih karunia Tuhan Yang Maha Esa yang menyertai kita semua. Semoga tulisan ini bermanfaat bagi yang membacanya. Terima kasih. Universitas Sumatera Utara ABSTRAK Analisis regresi adalah salah satu teknik statistika yang digunakan untuk menentukan model hubungan satu variabel respon (Y) dengan satu atau lebih variabel bebas (X), yang umumnya dinyatakan dalam persamaan matematik. Dalam statistika sebuah model regresi dapat diperoleh dengan melakukan pendugaan terhadap parameter parameternya dengan menggunakan metode tertentu, salah satunya dengan Metode Kemungkinan Maksimum (Maximum Likelihood Methods). Model regresi yang diperoleh dikatakan baik atau cocok, jika dipenuhi asumsi-asumsi ideal (klasik). Salah satu asumsi regresi linier yang harus dipenuhi adalah homogenitas varians (varian dari error bersifat konstan) yang disebut juga asumsi homoskedastisitas. Kebalikannya, jika ternyata varian dari kesalahan pengganggu tidak konstan misalnya membesar atau mengecil pada nilai X yang lebih tinggi, maka kondisi tersebut dikatakan mengalami heteroskedastisitas atau dituliskan dengan: ar , , , . Pada model regresi bila semua asumsi klasik dipenuhi, kecuali satu yaitu terjadi heteroskedastisitas, maka estimator yang diperoleh masih tetap tak bias dan konsisten, tetapi tidak efisien (varians membesar). Salah satu cara untuk mengatasi heteroskedastisitas dalam model regresi yaitu dengan Transformasi Box Cox. Transformasi Box Cox yaitu melakukan transformasi terhadap variabel respon Y yang dipangkatkankan dengan parameter , sehingga menjadi dan penduga parameter yang diperoleh berada dikisaran (-2,2). Universitas Sumatera Utara ANALYSIS OF BOX COX TRANSFORMATION TO OVERCOME HETEROSCEDASTICITY IN SIMPLE LINEAR REGRESSION MODEL ABSTRACT Regression analysis is one of statistic technics that used to determine the relation model of one respon variable (Y) with one or more independent variable (X), what is generally expressed in equation mathematic. In statistic, a regression model is obtained by estimate of its parameter by using certain method, one of them is with the Maximum Likelihood Methods. Regression model that obtained to be told is good or fit, if fulfilled by the ideal assumption (classic). One of linear regression assumption which must be fulfilled is homogeneity varian (variant from error have the character of constant) so called also homoscedasticity. On the contrary, in reality if varian from error is not constant for example big or minimize higher at value X, so the condition told to heteroscedasticity or written down by: ar , , , . In regression model if all classic assumption were fulfilled, except one of them was the heteroscedasticity, so estimator that obtained still unbiased and consistent, but inefficient (big varian). One of way to overcome the heteroscedasticity in regression model is by Box Cox Transformation. Box Cox Transformation that is do the transformation to respon variable Y which be ranked with the parameter , so that become and estimator of parameter that obtained residing in gyration (-2,2). Universitas Sumatera Utara DAFTAR ISI Halaman Persetujuan Pernyataan Penghargaan Abstrak Abstract Daftar Isi Daftar Tabel Daftar Gambar ii iii iv v vi vii ix x Bab 1 Pendahuluan 1.1 Latar Belakang 1.2 Identifikasi Masalah 1.3 Batasan Masalah 1.4 Tinjauan Pustaka 1.5 Tujuan Penelitian 1.6 Manfaat Penelitian 1.7 Metode Penelitian 1 3 3 3 5 5 6 Bab 2 Landasan Teori 2.1 Regresi Linier Sederhana 2.2 Estimasi Parameter 2.2.1 Pengertian Estimasi Parameter dan Estimator 2.2.2 Sifat – Sifat Estimator 2.2.3 Jenis – Jenis Pendugaan 2.3 Metode Kemungkinan Maksimum 2.3.1 Maksimum Likelihood dalam Regresi Linier Sederhana 2.4 Heteroskedastisitas 2.4.1 Pengertian Heteroskedastisitas 2.4.2 Konsekuensi atau Akibat Adanya Heteroskedastisitas 2.4.3 Pengujian Heteroskedastisitas 2.5 Transformasi Box Cox 2.5.1 Pendugaan Parameter Transformasi Box Cox 2.5.2 Selang Kepercayaan Parameter Pada Transformasi Box Cox 2.6 Pengujian Model Regresi 7 9 9 9 11 11 12 15 15 17 21 23 24 26 27 Bab 3 Pembahasan 29 Bab 4 Kesimpulan Dan Saran 4.1 Kesimpulan 4.2 Saran 35 35 35 Universitas Sumatera Utara Halaman Daftar Pustaka 36 Lampiran 38 Universitas Sumatera Utara DAFTAR TABEL Halaman Tabel 2.1 Nilai dan Model Transformasinya Tabel 3.1 Hasil pengujian Heteroskedastisitas dan Analisis Transformasi Box Cox Pada Model Regresi Linier Sederhana Tabel 3.2 Hasil Analisis Dalam Model Penentuan Regresi Linier Sederhana Setelah Variabel Respon Ditransformasikan Sesuai dengan Model Transformasi Box Cox 25 32 33 Universitas Sumatera Utara DAFTAR GAMBAR Halaman Gambar 2.1 Asumsi Homoskedastisitas Gambar 2.2 Asumsi Heteroskedastisitas 16 16 Universitas Sumatera Utara ABSTRAK Analisis regresi adalah salah satu teknik statistika yang digunakan untuk menentukan model hubungan satu variabel respon (Y) dengan satu atau lebih variabel bebas (X), yang umumnya dinyatakan dalam persamaan matematik. Dalam statistika sebuah model regresi dapat diperoleh dengan melakukan pendugaan terhadap parameter parameternya dengan menggunakan metode tertentu, salah satunya dengan Metode Kemungkinan Maksimum (Maximum Likelihood Methods). Model regresi yang diperoleh dikatakan baik atau cocok, jika dipenuhi asumsi-asumsi ideal (klasik). Salah satu asumsi regresi linier yang harus dipenuhi adalah homogenitas varians (varian dari error bersifat konstan) yang disebut juga asumsi homoskedastisitas. Kebalikannya, jika ternyata varian dari kesalahan pengganggu tidak konstan misalnya membesar atau mengecil pada nilai X yang lebih tinggi, maka kondisi tersebut dikatakan mengalami heteroskedastisitas atau dituliskan dengan: ar , , , . Pada model regresi bila semua asumsi klasik dipenuhi, kecuali satu yaitu terjadi heteroskedastisitas, maka estimator yang diperoleh masih tetap tak bias dan konsisten, tetapi tidak efisien (varians membesar). Salah satu cara untuk mengatasi heteroskedastisitas dalam model regresi yaitu dengan Transformasi Box Cox. Transformasi Box Cox yaitu melakukan transformasi terhadap variabel respon Y yang dipangkatkankan dengan parameter , sehingga menjadi dan penduga parameter yang diperoleh berada dikisaran (-2,2). Universitas Sumatera Utara ANALYSIS OF BOX COX TRANSFORMATION TO OVERCOME HETEROSCEDASTICITY IN SIMPLE LINEAR REGRESSION MODEL ABSTRACT Regression analysis is one of statistic technics that used to determine the relation model of one respon variable (Y) with one or more independent variable (X), what is generally expressed in equation mathematic. In statistic, a regression model is obtained by estimate of its parameter by using certain method, one of them is with the Maximum Likelihood Methods. Regression model that obtained to be told is good or fit, if fulfilled by the ideal assumption (classic). One of linear regression assumption which must be fulfilled is homogeneity varian (variant from error have the character of constant) so called also homoscedasticity. On the contrary, in reality if varian from error is not constant for example big or minimize higher at value X, so the condition told to heteroscedasticity or written down by: ar , , , . In regression model if all classic assumption were fulfilled, except one of them was the heteroscedasticity, so estimator that obtained still unbiased and consistent, but inefficient (big varian). One of way to overcome the heteroscedasticity in regression model is by Box Cox Transformation. Box Cox Transformation that is do the transformation to respon variable Y which be ranked with the parameter , so that become and estimator of parameter that obtained residing in gyration (-2,2). Universitas Sumatera Utara BAB 1 PENDAHULUAN 1.1 Latar Belakang Analisis Regresi adalah analisis statistik yang mempelajari bagaimana memodelkan sebuah model fungsional dari data untuk dapat menjelaskan ataupun meramalkan suatu fenomena alami atas dasar fenomena lain. Analisis regresi juga merupakan salah satu teknik statistika yang digunakan secara luas dalam ilmu pengetahuan terapan dalam bidang sosial maupun eksakta. Gujarati (2006) mendefenisikan analisis regresi sebagai kajian terhadap hubungan satu variabel yang disebut sebagai variabel yang diterangkan (variabel tidak bebas) dengan satu atau lebih variabel yang menerangkan (variabel bebas). Melalui analisis regresi ini, model hubungan antar variabel dapat diketahui. Selain itu, analisis regresi juga dapat dipergunakan sebagai peramalan. Model regresi linear sederhana dapat dinyatakan sebagai berikut: (1) dengan: Y adalah variabel tidak bebas; adalah variabel bebas, dengan i = 1, 2, 3, . , n; dan adalah parameter – parameter yang tidak diketahui; adalah error (kesalahan penggangu). Universitas Sumatera Utara Model regresi linear sederhana tersebut dapat ditulis dengan menggunakan persamaan matriks yaitu: , , , dan dengan: Y adalah vektor kolom berukuran X adalah matriks berukuran adalah vektor kolom berukuran (n baris dan 1 kolom) (n baris 2 kolom) (2 baris dan 1 kolom) adalah vektor kolom berukuran dan adalah parameter yang akan diduga dalam model regresi linier sederhana. Pendugaan parameter tersebut baik dengan menggunakan Metode Kuadrat Terkecil (Ordinary Least Square) maupun dengan Metode Kemungkinan Maksimum (Maximum Likelihood Methods) harus memenuhi asumsi – asumsi model ideal tertentu terhadap error . Salah satu asumsi yang penting dan harus dipenuhi adalah asumsi homoskedastisitas atau disebut juga asumsi kehomogenan varian. Apabila asumsi homoskedastisitas tidak dipenuhi, berarti varian dari setiap kesalahan pengganggu untuk variabel bebas yang diketahui tidak sama, sehingga keadaan ini disebut heteroskedastisitas (keheterogenan ragam). Dalam model regresi linier terdapat beberapa cara dalam mengatasi masalah heteroskedastisitas. Menurut Greene (2004) untuk mengatasi heteroskedastisitas dapat dilakukan dengan Metode Kuadrat Terkecil Tertimbang (Weighted Least Square), penaksirannya melalui pembobotan yang juga dapat dikatakan kuadrat terkecil yang diberlakukan secara umum atau disebut Kuadrat Terkecil Umum (General Least Square). Selain itu, heteroskedastisitas juga dapat diatasi dengan mentransformasikan variabel - variabelnya, baik variabel bebas, variabel tidak bebas maupun keduanya. Dalam tulisan ini akan diuraikan bahwa Transformasi Box Cox dapat mengatasi Universitas Sumatera Utara masalah heteroskedastisitas karena mengingat salah satu tujuan dari transformasi Box Cox adalah menghomogenkan varian. 1.2 Identifikasi Masalah Heteroskedastisitas merupakan salah satu faktor yang menyebabkan model regresi linier sederhana tidak efisien dan akurat, juga mengakibatkan penggunaan metode kemungkinan maksimum dalam mengestimasi parameter (koefisien) regresi akan terganggu. Masalah heteroskedastisitas harus diatasi, salah satunya dengan Transformasi Box Cox yaitu transformasi pangkat berparameter tunggal terhadap variabel tidak bebas Y yang kisarannya pada interval (-2,2). Sehingga, dalam penelitian ini akan menunjukkan secara simulasi bahwa parameter pada Transformasi Box Cox berada di kisaran (-2,2). 1.3 Batasan Masalah Agar penyelesaian masalah tidak menyimpang dari pembahasan, maka dibuat pembatasan masalah yaitu dengan menganggap bahwa model analisis regresinya tetap memenuhi asumsi – asumsi klasik lainnya kecuali asumsi homoskedastisitas tidak terpenuhi. 1.4 Tinjauan Pustaka Kutner, M.H, Wassamen.W dan Neter J (1990) mengatakan bahwa bentuk fungsi dari peluang distribusi dengan adanya istilah kesalahan pengganggu (error) yang ditetapkan serta estimator dari parameter – parameter dengan dan dan yang dinotasikan dapat diperoleh dengan menggunakan Metode Kemungkinan Maksimum (Maximum Likelihood Methods). Metode ini menggunakan distribusi gabungan dari sampel pengamatannya. Ketika gabungan distribusi ditunjukkan sebagai fungsi dari parameternya, yang diberi dengan sampel pengamatan tertentu, Universitas Sumatera Utara inilah yang disebut sebagai fungsi kemungkinannya. Dengan memaksimumkan fungsi kemungkinannya maka akan diperoleh estimator dari parameter – parameternya. Supranto J (2004) mengatakan bahwa heteroskesdastisitas merupakan salah satu pelanggaran terhadap salah satu asumsi model ideal tertentu terhadap galat yang diberlakukan dalam analisis regresi yaitu asumsi homoskedastisitas yang menyatakan bahwa varian kesalahan pengganggu pada setiap variabel bebas adalah sama (konstan). Heteroskedastisitas adalah keadaan bahwa varian kesalahan pengganggu tidak bersifat konstan atau disimbolkan dengan ar . Gasperz, Vincent (1991) mengatakan bahwa heteroskedastisitas dapat mengakibatkan pendugaan parameternya tidak efisien sehingga tidak mempunyai ragam minimum. Karena pendugaan parameter dianggap efisien karena memiliki ragam yang minimum, sehingga ragam galat bersifat konstan atau disebut juga bahwa asumsi homoskedastisitas terpenuhi. Salah satu usaha untuk mengatasi heteroskedastisitas ini dapat dilakukan dengan mentransformasikan variabel – variabelnya, baik variabel bebas, variabel tidak bebas maupun keduanya agar asumsi homoskedastisitas terpenuhi. Box, G. E. P. Dan D. R. Cox (1964) mengatakan bahwa Transformasi Box Cox adalah transformasi yang mempertimbangkan kelas transformasi berparameter tunggal yaitu yang dipangkatkan pada variabel respon (variabel tidak bebas) Y yang bertanda positif , sehingga transformasinya menjadi . Dalam analisis regresi apabila kenormalan data, kehomogenen ragam dan linieritas tak dipenuhi, maka dapat dilakukan transformasi terhadap variabel responnya sesuai dengan prosedur Transformasi Box Cox. Salah satu cara untuk mengatasi ketidakhomogenan ragam yaitu dengan Transformasi Box Cox. Drapper, N dan Smith, H (1992) mengatakan bahwa Transformasi Box Cox diberlakukan kepada variabel respon, Y, yang harus bertanda positif, dinyatakan dalam transformasi kuasa dengan persamaan berikut: Universitas Sumatera Utara ln jika 0 jika 0 Famili transformasi kontinu ini bergantung pada satu parameter yang akan diduga. Salah satu metode pendugaan (penaksiran) yang  , m; j = 1, 2,  , n) . Transpose suatu matriks Nanang Pradipta : Metode Regresi Ridge Untuk Mengatasi Model Regresi Linier Berganda Yang Mengandung Multikolinieritas, 2009. USU Repository © 2009 [ ] Jika A = aij aijt = a ji matriks (1 ≤ i ≤ m, 1 ≤ mxn maka matriks nxm [ ] dengan AT = aijt dan j ≤ n ) disebut dengan transpose dari matriks A. Contoh: A3 x 2  2 3 = 1 5 6 2 2 1 6 A2Tx 3 =    3 5 2 Matriks mxn yang umum dapat ditulis : Amxn  a11  ⋅  = ⋅   ⋅ am1 ⋅ ⋅ ⋅ ⋅ ⋅ a1n  ⋅  ⋅ =  ⋅  amn   a11  ⋅  = ⋅   ⋅ an1 ⋅ ⋅ ⋅ [a ] ij i = 1, 2,  , m j = 1, 2,  , n Maka T Amxn = Anxm ⋅ ⋅ ⋅ ⋅ a1m  ⋅  ⋅ =  ⋅  anm  [a ] ji i = 1, 2,  , m j = 1, 2,  , n Invers Matriks Misalkan A matriks nxn disebut nonsingular (invertible) jika terdapat matriks B maka AB = BA = I n (2.7) matriks B disebut invers dari A. Jika tidak terdapat matriks B maka matriks A disebut singular (noninvertible). Secara umum invers matriks A adalah : A −1 = 1 Adj ( A) det ( A) Adjoint matriks A adalah suatu matriks yang elemen-elemennya terdiri dari semua elemen-elemen kofaktor matriks A, dengan Ki j adalah kofaktor elemen-elemen aij , i, j = 1, 2, , n . Sehingga dapat ditulis dalam bentuk matriks sebagai berikut : Nanang Pradipta : Metode Regresi Ridge Untuk Mengatasi Model Regresi Linier Berganda Yang Mengandung Multikolinieritas, 2009. USU Repository © 2009  K11 K adj A =  21     K1n K 21  K n1  K 22  K n 2      K 2 n  K nn  Sifat – sifat invers : a. Jika A adalah matriks non singular, maka A−1 adalah nonsingular dan (A ) −1 −1 =A b. Jika A dan B adalah matriks non singular, maka AB adalah nonsingular dan ( AB )−1 = B −1 A−1 c. Jika A adalah matriks non singular maka (A ) = (A ) T −1 −1 Determinan Matriks [ ] Misalkan A = aij adalah matriks nxn. Fungsi determinan dari A ditulis dengan det (A) atau A . Secara matematikanya ditulis dengan : det ( A) = A = ∑ (±) a1 j1 a2 j2  anjn dengan j1 , j2 ,  , jn merupakan himpunan S = {1, 2,  , n}. Teorema [ ] Jika A = aij adalah matriks nxn yang mengandung sebaris bilangan nol, maka A = 0. 1 2 3  Contoh : A = 2 1 4 → A = 0   0 0 0 Teorema Nanang Pradipta : Metode Regresi Ridge Untuk Mengatasi Model Regresi Linier Berganda Yang Mengandung Multikolinieritas, 2009. USU Repository © 2009 Jika A adalah matriks segitiga n x n, maka A adalah hasil kali elemen-elemen pada diagonal utama, yaitu A = a11a22  ann . Contoh : A4 x 4 2 0 = 0  0 8 5 − 8 4 6 2  maka A = (2 )(4 )(− 5)(3) = −120 0 −5 5   0 0 3 Teorema Jika A adalah sebarang matriks kuadrat, maka A = AT . Terorema Jika A dan B adalah matriks kuadrat yang ordonya sama, maka AB = A B . 3 1 Contoh : A2 x 2 =   2 1 − 1 3 B2 x 2 =    5 8 ( AB )2 x 2 =  2 17   3 14 A B = (1)(− 23) = −23 AB = −23 Sehingga det (AB) = det (A) det (B) 2.3 Nilai Eigen dan Vektor Eigen Jika A adalah matriks nxn, maka vektor tak nol X di dalam Rn dinamakan vektor eigen (eigenvektor) dari A jika AX adalah kelipatan skalar dari X; yakni, AX = λX (2.8) untuk suatu sakalar λ . Skalar λ dinamakan nilai eigen (eigenvalue) dari A dan X dikatakan vektor eigen yang bersesuaian dengan λ . Untuk mencari nilai eigen matriks A yang berukuran nxn : Nanang Pradipta : Metode Regresi Ridge Untuk Mengatasi Model Regresi Linier Berganda Yang Mengandung Multikolinieritas, 2009. USU Repository © 2009 Anxn  a11  ⋅  = ⋅   ⋅ an1 ⋅ ⋅ ⋅ ⋅ ⋅ a1n  ⋅  ⋅ ,  ⋅  ann  ⋅ AX = λX , I nxn 1 0  = 0  0 0 0 1 0 0 0 0 0 1 0 0 0 0 0 ,    1      x1  x  X =  2     xn  X ≠0 AX = λIX λIX − AX = 0 (λI − A) X = 0 X ≠ 0 → λI − A = 0 untuk memperoleh nilai λ . λI − A = 0 λ − a11 ⋅ ⋅ ⋅ ⋅ ⋅ ⋅ ⋅ ⋅ ⋅ − a n1 − a n1 ⋅ =0 ⋅ ⋅ λ − a nn f (λ ) = a0 λn + a1λn−1 +  + an−1λ + an = 0 n buah akar λ1 , λ2 ,  , λn (2.9) Jika eigen value λn disubsitusi pada persamaan (λI − A) X = 0 , maka solusi dari eigen vektor Xn adalah (λ n I − A) X n = 0 . Definisi : Misalkan A = [aij ] matriks nxn. Determinan λ − a11  −a 21 f (λ ) = det (λI n − A) =      − a n1 − a12  − a1n  λ − a 22  − a 2 n       − a n 2  λ − a nn  Dikatakan karakteristik polinom dari A. Persamaan Nanang Pradipta : Metode Regresi Ridge Untuk Mengatasi Model Regresi Linier Berganda Yang Mengandung Multikolinieritas, 2009. USU Repository © 2009 f (λ ) = det (λI n − A) = 0 Dikatakan persamaan karakteristik dari A. Matriks kuadrat A dinamakan dapat didiagonalisasikan (diagonalizable) jika terdapat matriks P yang dapat dibalik sehingga P-1AP diagonal, matriks P dikatakan mendiagonalisasi A. Teorema : Jika A adalah matriks nxn, maka pernyataan – pernyataan berikut ekivalen satu sama lain. 1. A dapat didiagonalisasi 2. A mempunyai n buah vektor eigen bebas linier 2.4 Regresi Linier Berganda Beberapa permasalahan regresi dapat mencakup lebih dari satu variabel bebas. Modelmodel regresi yang menggunakan lebih dari satu variabel bebas disebut model regresi linier berganda. Regresi linier berganda merupakan salah satu teknik statistika yang digunakan secara luas. Bentuk umum dari regresi linier berganda adalah : Yi = β 0 + β1 X 1i + β 2 X 2i +  + β k X ki + ε i Model ini menggambarkan sebuah bidang banyak dalam ruang k pada tingkat variabel-variabel bebas {X i } Dalam melakukan analisis regresi linier berganda, sering dijumpai masalah multikolinieritas pada peubah-peubah bebasnya (X). Akibat adanya pelanggaran terhadap salah satu asumsi yang disyaratkan pada penggunaan regresi linier tersebut, maka tentu mempengaruhi terhadap sifat-sifat penduga atau penaksir koefisien regresi linier gandanya. Adapun asumsi-asumsi yang mendasari analisis regresi berganda tersebut antara lain : g. Nilai rata-rata kesalahan pengganggu nol, yaitu : E (ε i ) = 0 untuk i =1, 2, , n h. Var (ε i ) = E (ε i2 ) = σ 2 , adalah konstan untuk semua kesalahan pengganggu (asumsi homoskedastisitas). Nanang Pradipta : Metode Regresi Ridge Untuk Mengatasi Model Regresi Linier Berganda Yang Mengandung Multikolinieritas, 2009. USU Repository © 2009 i. Tidak ada korelasi serial (autocorrelation) antara penggangu ε i , berarti kovarian (ε i ε j ) = 0, i ≠ j j. Peubah bebas x1 , x2 ,  , xn konstan dalam sampling yang terulang dan bebas terhadap kesalahan pengganggu ε i . k. Tidak ada multikoloniaritas diantara peubah bebas. l. ε i ≈ N (0, σ 2 ) , artinya kesalahan pengganggu menyebar mengikuti distribusi normal dengan rata-rata 0 dan variansi σ 2 . Pengabaian multikolinieritas dalam analisis regresi akan mengakibatkan penduga koefisien regresi linier ganda relatif tidak stabil atau kurang tepat. Salah satu metode yang dapat digunakan mengatasi masalah multikolinieritas adalah dengan metode Regresi Ridge. 2.5 Penduga Parameter Metode Kuadrat Terkecil Metode kuadrat terkecil (Ordinary Least Square, OLS) merupakan salah satu metode untuk mengestimasi parameter pada regresi linier. Tujuan OLS adalah meminimumkan jumlah kuadrat dari kesalahan (error sum of square). Misalkan model yang akan diestimasi adalah parameter dari persamaan dengan : Yi = β 0 + β1 X 1i + β 2 X 2i +  + β k X ki + ε i (2.10) Penjabaran dari persamaan adalah : y1 = β 0 + β1 X 11 + β 2 X 12 +  + β k X 1k + ε 1 y2 = β 0 + β1 X 21 + β 2 X 22 +  + β k X 2 k + ε 2  yn = β 0 + β1 X n1 + β 2 X n 2 +  + β k X nk + ε n Persamaan-persamaan diatas dapat ditulis dengan menggunakan persamaan matriks yaitu : Nanang Pradipta : Metode Regresi Ridge Untuk Mengatasi Model Regresi Linier Berganda Yang Mengandung Multikolinieritas, 2009. USU Repository © 2009 Y = Xβ + ε (2.11) Dengan  y1  y  Y =  2     yn  1 X 11 1 X 21 X=    1 X n1 X 12 X 22  X n2  X 1k   X 2 k       X nk  β0  β  β =  1     β k  ε1  ε  ε =  2    ε n  Untuk mendapatkan penaksir-penaksir OLS bagi β , maka dengan asumsi klasik ditentukan dua vektor ( βˆ dan e ) sebagai :  βˆ1  ˆ  β ˆ β =  2    ˆ  β k   e1  e  e =  2    en  Persamaan hasil estimasi dari persamaan (2.1.1) dapat ditulis sebagai : Y = Xβˆ + e e = Y − Xβˆ atau (2.12) Karena tujuan OLS adalah meminimumkan jumlah kuadrat dari kesalahan, yaitu k ∑e i =1 2 i = minimum maka : k ∑e i =1 2 i = e12 + e22 +  + ek2 = [e1 e2  e1  e   ek ]  2  = e T e    ek  (2.13) jadi : k ∑e i =1 2 i = eT e ( = Y − Xβˆ ) (Y − Xβˆ ) T Nanang Pradipta : Metode Regresi Ridge Untuk Mengatasi Model Regresi Linier Berganda Yang Mengandung Multikolinieritas, 2009. USU Repository © 2009 = Y T Y − βˆ T X T Y − Y T Xβˆ + βˆ T X T Xβˆ Oleh karena βˆ T X T Y adalah skalar, maka matriks transposenya adalah : (βˆ T X TY ) T = Y T Xβˆ jadi, eT e = Y T Y − 2 βˆ T X T Y + βˆ T X T Xβˆ (2.14) Untuk menaksir parameter βˆ maka eT e harus diminimumkan terhadap βˆ T , maka : k ∑e i =1 2 i = Y T Y − 2 βˆ T X T Y + βˆ T X T Xβˆ ∂  k 2  ∑ ei  = pemilihan b yang mana kita menerima tau Kendall konsisten dengan korelasi nol antara x yang diamati dan sisaan yang bersesuaian, ε, adalah dapat diterima dalam Universitas Sumatera Utara arti bahwa ini konsisten dengan korelasi nol antara x dan sisaannya. Dengan kata lain, menerima setiap b yang tidak memberikan sejumlah pasangan yang tidak serasi (atau serasi) yang menunjukkan tau Kendall tidak nol, yaitu tidak ingin jumlah yang tidak serasi (atau serasi) terlalu kecil atau terlalu besar. Karena nc+ nd = N sama dengan jumlah bij yang ditimbulkan dari n pengamatan dengan xi yang berbeda, maka menolak τ = 0 dalam pengujian dua arah pada tingkat 5 % misalnya. Hipotesis-hipotesis yang melandasi pengujian ini adalah a. dua arah : Ho : β1 = β1(0) H1 : β1 ≠ β1(0) ; b. satu arah : Ho : β1 ≤ β1(0) H1 : β1 > β1(0) c. satu arah : H0 : β1 ≥ β1(0) ; H1 : β1 < β1(0) Seperti yang telah dijelaskan, prosedur yang diuraikan disusun berlandaskan statistik τ Kendall, sehingga statistik ujianya adalah τ= ∧ P−Q n Dengan τ = statistik uji τ Kendall ∧ P = banyaknya pasangan berurutan wajar Q = banyaknya pasangan berurutan terbalik n = banyaknya pasangna yang diamati Kaidah pengambilan keputusan untuk ketiga pasangan hipotesis di atas adalah sebagai berikut : a. dua arah * ∧  > τ ( n, α , tolak H 0  2 : τ * α ≤ τ (n, 2 , terima H 0  > τ * (n,α ), tolak H 0 b. satu arah : τ  * ≤ τ (n,α ), terima H 0 ∧ Universitas Sumatera Utara  < τ * (n,α ), tolak H 0 2 c. satu arah : τ  * α ≥ τ (n, 2 ), terima H 0 ∧ τ* adalah harga-harga kritis dalam table statistik uji τ Kendall. Pengujian koefisien kemiringan ini dengan membuat tataan dan membandingkan semua hasil pengamatan menurut nilai-nilai X (Daniel, 1989). 2.7. Interval Kepercayaan untuk Koefisien Kemiringan Metode pembentukan interval kepercayaan terhadap koefisien kemiringan ini dilandaskan pada prosedur pengujian hipotesis Theil untuk β1, sedangkan asumsi-asumsi yang mendasari prosedur pengujian hipotesis ini juga berlaku pada pembentukan interval kepercayaan (1-α) bagi  > τ * (n,α , tolak H 0 2 τ * α ( n , , terima H 0 τ ≤  2 ∧ Lebih lanjut Daniel (1989) menjelaskan bahwa konstanta untuk interval kepercayaan adalah n k= C2 − S ( n ,α ) − 2 2 2 Dengan : k = konstanta untuk interval kepercayaan C2 = banyaknya nilai bij yang mungkin dari n pasangan pengamatan S(n,α/2) = titik kritis τ Kendall untuk n pasangan pengamatan pada taraf α n Berdasarkan nilai konstanta tersebut akan diperoleh β L sebagai batas bawah interval ∧ kepercayaan untuk β1 dan βU sebagai batas interval kepercayaan untuk β1, β L adalah nilai bij ke∧ ∧ k yang dihitung dari nilai paling kecil dalam statistik tataan bagi nilai bij. βU adalah nilai bij ke-k ∧ yang dihitung mundur dari nilai yang paling besar dalam statistik tataan tersebut. Universitas Sumatera Utara Interval kepercayaan untuk β1 dengan suatu koefisien kepercayaan (1-α) adalah C ( β L < β1 < β U ) = 1 – α ∧ ∧ dengan C adalah kependekan dari confidence (kepercayaan) dan menunjukkan bahwa ekspresi ini lebih merupakan suatu pernyataan kepercayaan daripada suatu pernyataan probabilitas (Daniel, 1989). Universitas Sumatera Utara BAB 3 PEMBAHASAN 3.1 Metode Ordinary Least Square (OLS) Contoh kasus diambil dari seorang insinyur kimia menyelidiki pengaruh proses produksi pada produk yang dihasilkan. Hasil penyelidikan tersebut menghasilkan data sebagai berikut (Hines dan Montgomery, halaman (412). Tabel 1. Pengaruh Proses Produksi Pada Produk Yang Dihasilkan Dengan Metode OLS NO X Y X.Y X2 Y2 R2 1 0 2.5 0 0 6.25 1.21 0.484 2 1 3.1 3.1 1 9.61 2.4 0.774 3 2 3.4 6.8 4 11.56 3.59 1.056 4 3 4.0 12.0 9 16 4.78 1.195 5 4 4.6 18.4 16 21.16 5.97 1.30 6 5 5.1 25.5 25 26.01 7.16 1.40 7 6 11.1 69.6 36 123.21 8.35 0.753 JUMLAH 21 33.8 135.4 91 213.8 33.46 6.962 Universitas Sumatera Utara = 1.19x + 1.21 ∧ y R2 = y Dimana jumlah rata- rata R2 memiliki nilai diantara -1 < R2 < 1, maka rata-rata jumlah R2 dari Metode OLS adalah 0.99. 3.2 Metode Theil Tabel 2. Pengaruh Proses Produksi Pada Produk Yang Dihasilkan Dengan Metode Theil. NO X Y b α Y R2 1 0 2.5 0 2.5 2.5 1 2 1 3.1 0.6 2.533 3.133 1.01 3 2 3.4 0.3 2.266 2.866 0.84 4 3 4.0 0.6 2.299 4.099 1.02 5 4 4.6 0.6 2.332 4.732 1.03 6 5 5.1 0.5 2.267 4.767 0.93 7 6 11.1 6 7.698 43.698 3.94 Jumlah 21 33.8 8.6 21.895 65.795 9.77 Universitas Sumatera Utara Untuk i < j dan Xi < Xj ∧ y R2 = y Dimana jumlah rata- rata R2 memiliki nilai diantara -1 < R2 < 1, maka rata-rata jumlah R2 dari Metode Theil adalah 1.40. Garis yang cocok adalah y = 0.567x + 2,332. Dan untuk data di atas, akan ditentukan sebuah selang kepercayaan 95 % untuk β. Maka yang digunakan adalah metode yang didasarkan pada tau Kendall. Untuk pengujian dua arah pada tingkat 5 %, nilai kritis untuk nc − nd adalah 15. Sekarang N (jumlah dari bij) adalah 21 maka r = ½ (21-15) = 3, sehingga menolak 3 bij terbesar dan terkecil berikutnya memberikan batas-batas kepercayaan, sehingga selang kepercayaan 95 % untuk β adalah selang {(bij(4), bij(18)} di mana bij (4) dan bij (18) adalah urutan ke-4 dan ke-18 dari bij. Dan nilai yang diperoleh dalam contoh tersebut dengan mudah melihat bij (4) = 0,450 dan bij (18) = 1,900. Dengan sebuah selang kepercayaan 95 % untuk β adalah (0,450, 1,900). Hasil estimasi parameter untuk data berdistribusi normal dari kedua metode diperoleh hasil yang tidak terlalu jauh berbeda. Hal ini menunjukkan bahwa metode Theil hampir seefisien metode kuadrat terkecil untuk data yang asumsi kenormalannya valid. Apabila dilihat dari nilai galat masih lebih baik regresi parametrik dengan menggunakan metode kuadrat terkecil dari pada regresi nonparametrik dengan menggunakn metode Theil karena nilai galatnya lebih kecil sehingga masih tetap lebih baik regresi parametrik sesuai dengan jenis data yaitu data yang berdistribusi normal. Regresi linier sederhana parametrik dengan menggunakan metode kuadrat terkecil untuk data yang berdistribusi uniform maupun regresi linier sederhana nonparametrik dengan menggunakan metode Theil tidak bisa mewakili suatu regresi yang baik. Hal ini ditunjukkan oleh hasil pembentukkan interval kepercayaan yang tidak memuat parameter yang telah ditentukan. Universitas Sumatera Utara Hasil analisis untuk data simulasi berdistribusi gamma menunjukkan bahwa metode kuadrat terkecil untuk regresi parametrik memberikan hasil yang lebih baik dari pada metode Theil untuk regresi nonparametrik. Hal ini ditunjukkan oleh nilai estimator yang lebih mendekati nilai parameter yang telah ditentukan, interval kepercayaan yang lebih pendek dan memuat nilai parameter serta nilai standart error yang lebih kecil pada regresi parametrik. Universitas Sumatera Utara BAB 4 KESIMPULAN DAN SARAN 4.1. Kesimpulan Dari hasil analisis dapat disimpulkan bahwa dalam penelitian ini khususnya untuk analisis regresi linier sederhana, metode kuadrat terkecil untuk regresi parametrik memberikan hasil estimator yang lebih baik dari pada metode Theil pada regresi nonparametrik. Perbandingan antara Metode OLS dengan Metode Theil dapat diketahui dengan menggunakan koefisien determinasi R2. Nilai yang dihasilkan dari R2 dengan metode OLS, yaitu 0.99 sedangkan nilai dari R2 dengan metode Theil, yaitu 1.40. Maka metode kuadrat terkecil dikatakan lebih baik jika -1 < R2 < 1. 4.2. Saran Penelitian ini bisa dikembangkan lebih lanjut dengan menggunakan sampel yang banyak atau sampel yang berbeda, sehingga dapat diketahui pengaruhnya terhadap perbandingan antara Metode OLS dengan Metode Theil. Universitas Sumatera Utara DAFTAR PUSTAKA Conover, W.J. (1980), Practical NonParametrik Statistics (2-nd edn) John Wiley and Sons. New York. Daniel, W.W. (1982). Statistika Nonparametrik Terapan. Jakarta : John Gramedia. Draper, N dan Smith, H. (1992). Analisis Regresi Terapan. Jakarta : Gramedia Pustaka Umum. E, A. Mena, N. Kossovsky, C. Chu, C. Hu. (1995). Journal of Investigative Surgery : 31-42 F. J. Anscomba. (1973). Graphsin Statistical Analisis, “The American Statistician,” 27 : 17-21. Faraway, Julian. (2002). Practical Regression and Anova Using R. Dapat diakses di http://wiener.math.csi.cuny.edu/st/R/fat.R. dibuka pada 12 Mei 2011. Hines, W.W dan Montgomery, D. C. (1990). Probabilita dan Statistik dalam Ilmu Rekayasa dan Manajemen. Jakarta : Universitas Indonesia. Sparks, A.H., P.D. Esker, M. Bates, W. Dall’ Acqua, Z. Guo, V. Segovia, S.D. Silwal, S. Tolos, and K.A. Garrett. (2008). Ecology and Epidemiology in R : Disease Progress over Time. The Plant Health Instructor. DOI:10.1094/PHI-A-2008-0129-02. Sprent, P. (1991). Metode Statistika Nonparametrik Terapan. Jakarta : Universitas Indonesia. Whipple, W, Neely. (2008). CDE Tutorial on R : Linier Regression. Dapat diakses di http://www.stat.wisc.edu/~neely/Site/CDE R Short Course,html dibuka pada 12 Mei 2011. Universitas Sumatera Utara
Analisis Transformasi Box Cox Untuk Mengatasi Heteroskedastisitas Dalam Model Regresi Linier Sederhana. Identifikasi Masalah Batasan Masalah Tinjauan Pustaka Latar Belakang Analisis Transformasi Box Cox Untuk Mengatasi Heteroskedastisitas Dalam Model Regresi Linier Sederhana. Maksimum Likelihood dalam Regresi Linier Sederhana Pendugaan Parameter Transformasi Box Cox Selang Kepercayaan Parameter Pada Transformasi Box Cox Pengertian Estimasi Parameter dan Estimator Sifat – Sifat Estimator Pengertian Heteroskedastisitas Konsekuensi Atau Akibat Adanya Heteroskedastisitas Pengujian Hipotesis dalam Model Regresi Linier Sederhana Transformasi Box Cox Untuk Mengatasi Heteroskedastisitas Regresi Linier Sederhana Analisis Transformasi Box Cox Untuk Mengatasi Heteroskedastisitas Dalam Model Regresi Linier Sederhana. Tujuan Penelitian Manfaat Penelitian Metode Penelitian
Dokumen baru
Aktifitas terbaru
Penulis
Dokumen yang terkait
Upload teratas

Analisis Transformasi Box Cox Untuk Mengatasi Heteroskedastisitas Dalam Model Regresi Linier Sederhana.

Gratis