Sabtu, 11 April 2020

Brelliana Zain_18510175_Resume Regresi Berganda Menggunakan SPSS


RESUME ANALISIS REGRESI BERGANDA
DENGAN MENGGUNAKAN SPSS


Disusun Oleh:
Brelliana Zain Tahira Sujana                         (18510175)

Mata Kuliah Statistik II

Dosen Pengampu:
M. Nanang Choiruddin, SE., MM.





JURUSAN MANAJEMEN
FAKULTAS EKONOMI
UNIVERSITAS ISLAM NEGERI MAULANA MALIK IBRAHIM MALANG
2019/2020

ISI RESUME


                Analisis regresi adalah sebuah teknik dalam menganalisis data statistika yang digunakan untuk mengkaji hubungan antara beberapa variabel (Kutner, Nachtsheim dan Neter, 2004).
                Terdapat dua model regresi dalam mengkaji hubungan antara beberapa variabel menggunakan, yaitu model regresi linier sederhana dan model regresi berganda. Dalam model regresi linier sederhana, peneliti harus menentukan satu variabel dependen dan satu atau lebih variabel independen terlebih dahulu. Apabila model regresi linier berganda, maka membutuhkan dua atau lebih variabel bebas terhadap variabel tidak bebas.
                Kemudian, peniliti perlu mengestimasi parameter model regresi linier sederhana maupun model regresi linier berganda dengan metode kuadrat terkecil (ordinary least square/OLS) atau metode kemungkinan maksimum (maximum likelihood estimation/MLE) (Kutner et.al, 2004) .
                 
1.       Regresi Linier Sederhana: Analisis regresi dengan satu variabel independen, dengan formulasi umum:
Y = a +b1X1 + e
2.       Regresi Linier Berganda: Analisis regresi dengan dua atau lebih variabel independen, dengan formulasi umum:
Y = a + b1X1 + b2X2 + … + bnXn + e
Dimana:
Y = Dependent variable
a = konstanta
b1 = koefisien regresi X1
b2 = koefisien regresi X2,
dst. e = Residual / Error

                Suatu model statistik dapat dikatakan sebagai model yang baik apabila memenuhi beberapa kriteria berikut (Gujarati, 2006):
1.       Parsemoni. Suatu model tidak akan pernah dapat secara sempurna menangkap realitas sehingga hal ini menjadi urgensi bagi kita untuk melakukan sedikit abstraksi atau penyederhanaan dalam pembuatan model.
2.       Identifikasi tinggi. Parameter yang diestimasi memiliki nilai yang unik (tunggal, berdiri sendiri) sehingga hanya akan ada satu parameter saja.
3.       Keselarasan. Khusus untuk analisis regresi, ialah menerangkan sebanyak mungkin variasi variabel terikat dengan menggunakan variabel bebas dalam model. Oleh karena itu, suatu model dikatakan baik jika indikator pengukur kebaikan model (adjusted R square) bernilai tinggi.

                Asumsi yang harus terpenuhi dalam analisis regresi (Gujarati, 2003) adalah:
1.       Residual menyebar normal (normalitas)
2.       Antar Residual saling bebas (autokorelasi)
3.       Kehomogenan ragam residual (heteroskedastisitas)
4.       Antar Variabel independent tidak berkorelasi (multikolinearitas)

a.       Uji Outlier
                Pertama yaitu membuang data outlier sehingga hasil output analisis yang dihasilkan tidak terpengaruh oleh pengamatan yang menyimpang. Pada sheet Data View kita, ada dua variabel baru, yaitu RES_1 (Residual) dan SDR (Studentized deleted Residual). SDR adalah nilai-nilai yang digunakan untuk mendeteksi adanya outlier. Dalam deteksi outlier ini kita membutuhkan tabel distribusi t.
Kriteria pengujiannya adalah jika nilai absolut |SDR| > 𝑡𝑛𝑘−1𝛼/2, maka pengamatan tersebut merupakan outlier. (n = jumlah sampel dan k = jumlah variabel bebas)




b.      R Square sebagai ukuran kecocokan model
                Nilai R Square pada tabel Model Summary adalah presentase kecocokan model. R Square pada persamaan regresi berpengaruh terhadap penambahan variabel independent, maka semakin banyak variabel independen yang terlibat semakin besar pula nilai R Square.





c.       Uji F
                Uji F dalam analisis regresi linier berganda bertujuan untuk mengetahui pengaruh variabel independent secara simultan, yang ditunjukkan oleh dalam tabel ANOVA.

                Rumusan hipotesis yang digunakan adalah:
·         H0: kedua variabel independen secara simultan tidak berpengaruh terhadap variabel dependen
·         H1: kedua variabel independen secara simultan berpengaruh terhadap variabel dependen
                Kriteria pengujiannya adalah:
·         Jika nilai signifikansi > 0,05 maka keputusannya adalah terima H0 atau variabel independen secara simultan tidak berpengaruh signifikan terhadap variabel dependen.
·         Jika nilai signifikansi < 0,05 maka keputusannya adalah tolak H0 atau variabel independen secara simultan berpengaruh signifikan terhadap variabel dependen.


                Dalam contoh dibawah, nilai Sig. sebesar 0,000, berarti promosi (X1) dan penjualan (X2) secara simultan berpengaruh signifikan terhadap besarnya keuntungan (Y).



d.      Uji t








                Uji t digunakan untuk mengetahui pengaruh masing-masing variabel independen secara parsial dalam tabel Coefficients. Pada nilai Unstandardized coefficients B, variabel penjualan mempengaruhi jumlah keuntungan secara positif sebesar 0,06. Maka, jika penjualan naik sebesar 1.000 satuan maka keuntungan akan naik sebesar 60 satuan. Demikian juga variabel promosi terhadap jumlah keuntungan. Nilai signifikansi untuk variabel penjualan yaitu sebesar 0,000, artinya variabel ini berpengaruh secara signifikan terhadap jumlah keuntungan. Nilai signifikansinya < 0,05, sehingga kesimpulannya adalah H0 ditolak atau penjualan dan promosi mempunyai pengaruh signifikan terhadap jumlah keuntungan.





UJI ASUMSI KLASIK ANALISIS REGRESI
a.       Uji Normalitas
                Uji normalitas berguna untuk menentukan data yang telah dikumpulkan dari populasi normal (distribusi normal). Distribusi normal memiliki data lebih dari 30 sampel (n > 30). Kemudian, menggunakan uji statistik normalitas untuk memberikan kepastian apakah data yang dimiliki berdistribusi normal atau tidak. Sebab, belum tentu data yang lebih dari 30 bisa dipastikan berdistribusi normal. Uji statistik normalitas yang dapat digunakan diantaranya Chi-Square, Kolmogorov Smirnov, Lilliefors, Shapiro Wilk, Jarque Bera.

                Salah satu cara untuk melihat normalitas secara visual yaitu melalui Normal P-P Plot. Ketentuannya adalah jika titik-titik masih berada di sekitar garis diagonal maka dapat dikatakan bahwa residual menyebar normal.




b.      Uji Autokorelasi
                Uji autokorelasi digunakan untuk mengetahui ada atau tidaknya penyimpangan asumsi klasik autokorelasi yaitu, korelasi yang terjadi antara residual pada satu pengamatan dengan pengamatan lain pada model regresi. Prasyarat yang harus terpenuhi adalah tidak adanya autokorelasi dalam model regresi. Metode pengujian yang sering digunakan adalah dengan uji Durbin-Watson (uji DW) dengan ketentuan sebagai berikut:
1.       Jika d lebih kecil dari dL atau lebih besar dari (4-dL) maka hopotesis nol ditolak, yang berarti terdapat autokorelasi.
2.       Jika d terletak antara dU dan (4-dU), maka hipotesis nol diterima, yang berarti tidak ada autokorelasi.
3.       Jika d terletak antara dL dan dU atau diantara (4-dU) dan (4-dL), maka tidak menghasilkan kesimpulan yang pasti.
                Data yang digunakan untuk mengestimasi model regresi linier merupakan data time series maka diperlukan adanya uji asumsi terbebas dari autokorelasi. Hasil uji autokorelasi, dapat dilihat pada tabel Model Summaryb kolom terakhir.






c.       Uji Multikolinearitas
                Multikolinearitas adalah adanya hubungan linear antara variabel bebas X dalam model regresi ganda. Jika hubungannya adalah korelasi sempurna, maka variabel-variabel tersebut berkolinearitas ganda sempurna.
               

Pendeteksian multikolinearitas dapat dilihat melalui nilai Variance Inflation Factors (VIF) pada tabel dibawah ini. Apabila nilai VIF < 10 maka tidak terdapat mutikolinearitas diantara variabel independent dan sebaliknya. Pada tabel dibawah menunjukkan nilai VIF seluruhnya > 10, sehingga asumsi model tersebut mengandung multikolinieritas.

d.       Uji Heteroskedastisitas
                Heteroskedastisitas adalah adanya ketidaksamaan varian dari residual untuk semua pengamatan pada model regresi. Tujuannya untuk mengetahui adanya penyimpangan dari syarat-syarat asumsi klasik pada model regresi. Dalam model regresi tidak boleh ada heteroskedastisitas. Uji heteroskedastisitas dilakukan dengan cara meregresikan nilai absolut residual dengan variabel-variabel independen dalam model.








Daftar Pustaka

Basuki, Agus Tri. Bahan Ajar Ekonometrika: Regresi Berganda Dan Uji Asusmi Klasik Dengan SPSS. Universitas Muhammadiyah Yogyakarta
Gujarati, Damodar N. 1995. Basic Econometrics Edisi Ketiga. Singapur: McGraw-Hill Companies, Inc.
Kutner, M.H., C.J. Nachtsheim., dan J. Neter. 2004. Applied Linear Regression Models Edisi Keempat. New York: McGraw-Hill Companies, Inc.
Draper, N. dan Smith, H. 1992. Analisis Regresi Terapan Edisi Kedua. Terjemahan Oleh Bambang Sumantri. Jakarta: Gramedia Pustaka Utama.
Santosa, Singgih. 2005. Berbagai Masalah Statistik dengan SPSS versi 11.5. Jakarta: PT Elex Media Komputindo.
Janie, Dyah Nirmala Arum. 2012. Statistik Deskriptif dan Regresi Linier Berganda Dengan SPSS. Semarang: Semarang University Press.

2 komentar:

Review Jurnal Analisis Opsi dan Future Nama / NIM : Yuni Mega Lestari / 17510175 Mata Kuliah : Analisis Sekuritas Dosen Mata Kuliah ...