RESUME ANALISIS REGRESI BERGANDA
DENGAN MENGGUNAKAN SPSS
Disusun Oleh:
Brelliana Zain
Tahira Sujana (18510175)
Mata Kuliah
Statistik II
Dosen
Pengampu:
M. Nanang
Choiruddin, SE., MM.
JURUSAN
MANAJEMEN
FAKULTAS
EKONOMI
UNIVERSITAS
ISLAM NEGERI MAULANA MALIK IBRAHIM MALANG
2019/2020
ISI RESUME
Analisis regresi adalah
sebuah teknik dalam menganalisis data statistika yang digunakan untuk mengkaji
hubungan antara beberapa variabel (Kutner, Nachtsheim dan Neter, 2004).
Terdapat dua model regresi
dalam mengkaji hubungan antara beberapa variabel menggunakan, yaitu model
regresi linier sederhana dan model regresi berganda. Dalam model regresi linier
sederhana, peneliti harus menentukan satu variabel dependen dan satu atau lebih
variabel independen terlebih dahulu. Apabila model regresi linier berganda,
maka membutuhkan dua atau lebih variabel bebas terhadap variabel tidak bebas.
Kemudian, peniliti
perlu mengestimasi parameter model regresi linier sederhana maupun model regresi
linier berganda dengan metode kuadrat terkecil (ordinary least square/OLS)
atau metode kemungkinan maksimum (maximum likelihood estimation/MLE) (Kutner
et.al, 2004) .
1.
Regresi Linier Sederhana: Analisis
regresi dengan satu variabel
independen, dengan formulasi umum:
Y = a +b1X1 +
e
2.
Regresi Linier Berganda: Analisis
regresi dengan dua atau lebih variabel
independen, dengan formulasi umum:
Y = a + b1X1
+ b2X2 + … + bnXn + e
Dimana:
Y = Dependent
variable
a = konstanta
b1 =
koefisien regresi X1
b2 =
koefisien regresi X2,
dst. e =
Residual / Error
Suatu model
statistik dapat dikatakan sebagai model yang baik apabila memenuhi beberapa
kriteria berikut (Gujarati, 2006):
1.
Parsemoni. Suatu model
tidak akan pernah dapat secara sempurna menangkap realitas sehingga hal ini
menjadi urgensi bagi kita untuk melakukan sedikit abstraksi atau penyederhanaan
dalam pembuatan model.
2.
Identifikasi tinggi. Parameter
yang diestimasi memiliki nilai yang unik (tunggal, berdiri sendiri) sehingga
hanya akan ada satu parameter saja.
3.
Keselarasan. Khusus
untuk analisis regresi, ialah menerangkan sebanyak mungkin variasi variabel
terikat dengan menggunakan variabel bebas dalam model. Oleh karena itu, suatu
model dikatakan baik jika indikator pengukur kebaikan model (adjusted R
square) bernilai
tinggi.
Asumsi yang
harus terpenuhi dalam analisis regresi (Gujarati, 2003) adalah:
1.
Residual menyebar normal (normalitas)
2.
Antar Residual saling bebas (autokorelasi)
3.
Kehomogenan ragam residual (heteroskedastisitas)
4.
Antar Variabel independent tidak
berkorelasi (multikolinearitas)
a.
Uji Outlier
Pertama yaitu
membuang data outlier sehingga hasil output analisis yang dihasilkan tidak terpengaruh
oleh pengamatan yang menyimpang. Pada sheet Data View kita, ada dua variabel baru, yaitu RES_1 (Residual) dan SDR (Studentized deleted Residual). SDR
adalah nilai-nilai yang digunakan untuk mendeteksi adanya outlier. Dalam
deteksi outlier ini kita membutuhkan tabel distribusi t.
Kriteria pengujiannya adalah jika nilai absolut |SDR| > 𝑡𝑛−𝑘−1𝛼/2, maka pengamatan tersebut merupakan outlier. (n = jumlah sampel dan k = jumlah variabel bebas)
Kriteria pengujiannya adalah jika nilai absolut |SDR| > 𝑡𝑛−𝑘−1𝛼/2, maka pengamatan tersebut merupakan outlier. (n = jumlah sampel dan k = jumlah variabel bebas)
b.
R Square
sebagai ukuran kecocokan model
Nilai
R Square pada tabel Model Summary adalah presentase kecocokan
model. R Square pada
persamaan regresi berpengaruh
terhadap penambahan variabel independent, maka semakin banyak variabel independen
yang terlibat semakin besar pula nilai R Square.
c.
Uji F
Uji
F dalam analisis regresi linier berganda bertujuan untuk mengetahui pengaruh
variabel independent secara simultan, yang ditunjukkan oleh dalam tabel ANOVA.
Rumusan
hipotesis yang digunakan adalah:
·
H0: kedua variabel independen secara simultan
tidak berpengaruh terhadap variabel dependen
·
H1: kedua variabel independen secara simultan
berpengaruh terhadap variabel dependen
Kriteria
pengujiannya adalah:
·
Jika nilai signifikansi > 0,05 maka
keputusannya adalah terima H0 atau
variabel independen secara simultan tidak berpengaruh signifikan terhadap
variabel dependen.
·
Jika nilai signifikansi < 0,05 maka
keputusannya adalah tolak H0 atau
variabel independen secara simultan berpengaruh signifikan terhadap variabel
dependen.
Dalam contoh dibawah, nilai Sig. sebesar 0,000, berarti promosi (X1) dan penjualan (X2) secara simultan berpengaruh signifikan terhadap besarnya keuntungan (Y).
d.
Uji t
Uji t digunakan untuk mengetahui pengaruh masing-masing variabel independen secara parsial dalam tabel Coefficients. Pada nilai Unstandardized coefficients B, variabel penjualan mempengaruhi jumlah keuntungan secara positif sebesar 0,06. Maka, jika penjualan naik sebesar 1.000 satuan maka keuntungan akan naik sebesar 60 satuan. Demikian juga variabel promosi terhadap jumlah keuntungan. Nilai signifikansi untuk variabel penjualan yaitu sebesar 0,000, artinya variabel ini berpengaruh secara signifikan terhadap jumlah keuntungan. Nilai signifikansinya < 0,05, sehingga kesimpulannya adalah H0 ditolak atau penjualan dan promosi mempunyai pengaruh signifikan terhadap jumlah keuntungan.
UJI ASUMSI KLASIK ANALISIS REGRESI
a.
Uji Normalitas
Uji normalitas berguna untuk menentukan
data yang telah dikumpulkan dari populasi normal (distribusi normal). Distribusi normal memiliki data lebih dari 30 sampel (n > 30). Kemudian, menggunakan uji statistik
normalitas untuk
memberikan kepastian apakah data yang dimiliki berdistribusi normal atau tidak.
Sebab, belum tentu data yang lebih dari 30
bisa dipastikan berdistribusi normal. Uji statistik normalitas yang dapat
digunakan diantaranya Chi-Square, Kolmogorov Smirnov, Lilliefors, Shapiro
Wilk, Jarque Bera.
Salah satu cara untuk melihat normalitas secara visual yaitu melalui Normal P-P Plot. Ketentuannya adalah jika titik-titik masih berada di sekitar garis diagonal maka dapat dikatakan bahwa residual menyebar normal.
b.
Uji
Autokorelasi
Uji
autokorelasi digunakan untuk mengetahui ada atau tidaknya penyimpangan asumsi
klasik autokorelasi yaitu, korelasi yang terjadi antara residual pada satu
pengamatan dengan pengamatan lain pada model regresi. Prasyarat yang harus
terpenuhi adalah tidak adanya autokorelasi dalam model regresi. Metode pengujian
yang sering digunakan adalah dengan uji Durbin-Watson (uji DW) dengan ketentuan
sebagai berikut:
1.
Jika d lebih kecil dari dL atau
lebih besar dari (4-dL) maka hopotesis nol ditolak, yang berarti terdapat
autokorelasi.
2.
Jika d terletak antara dU dan (4-dU),
maka hipotesis nol diterima, yang berarti tidak ada autokorelasi.
3.
Jika d terletak antara dL dan dU
atau diantara (4-dU) dan (4-dL), maka tidak menghasilkan kesimpulan yang pasti.
Data yang digunakan untuk
mengestimasi model regresi linier merupakan data time series maka
diperlukan adanya uji asumsi terbebas dari autokorelasi. Hasil uji
autokorelasi, dapat dilihat pada tabel Model Summaryb kolom
terakhir.
c.
Uji
Multikolinearitas
Multikolinearitas adalah adanya hubungan linear antara variabel bebas X dalam model
regresi ganda. Jika hubungannya adalah korelasi sempurna, maka
variabel-variabel tersebut berkolinearitas ganda sempurna.
Pendeteksian multikolinearitas dapat dilihat melalui nilai Variance Inflation Factors (VIF) pada tabel dibawah ini. Apabila nilai VIF < 10 maka tidak terdapat mutikolinearitas diantara variabel independent dan sebaliknya. Pada tabel dibawah menunjukkan nilai VIF seluruhnya > 10, sehingga asumsi model tersebut mengandung multikolinieritas.
d.
Uji
Heteroskedastisitas
Heteroskedastisitas adalah adanya ketidaksamaan varian dari residual untuk semua pengamatan
pada model regresi. Tujuannya untuk mengetahui adanya penyimpangan dari
syarat-syarat asumsi klasik pada
model regresi. Dalam model
regresi tidak boleh ada heteroskedastisitas. Uji heteroskedastisitas dilakukan
dengan cara meregresikan nilai absolut residual dengan variabel-variabel
independen dalam model.
Daftar Pustaka
Basuki, Agus
Tri. Bahan Ajar Ekonometrika: Regresi
Berganda Dan Uji Asusmi Klasik Dengan SPSS. Universitas
Muhammadiyah Yogyakarta
Gujarati, Damodar N. 1995. Basic Econometrics Edisi Ketiga. Singapur: McGraw-Hill Companies,
Inc.
Kutner, M.H.,
C.J. Nachtsheim., dan J. Neter. 2004. Applied
Linear Regression Models Edisi Keempat. New York: McGraw-Hill Companies,
Inc.
Draper, N. dan
Smith, H. 1992. Analisis Regresi Terapan
Edisi Kedua. Terjemahan Oleh Bambang Sumantri. Jakarta: Gramedia Pustaka
Utama.
Santosa,
Singgih. 2005. Berbagai Masalah Statistik
dengan SPSS versi 11.5. Jakarta: PT Elex Media Komputindo.
Janie, Dyah
Nirmala Arum. 2012. Statistik Deskriptif
dan Regresi Linier Berganda Dengan SPSS. Semarang: Semarang University
Press.
Terimakasih kak, sangat membantu dan bermanfaat
BalasHapusTerima kasih, materinya sangat bermanfaat
BalasHapus