Sunday, September 28, 2014

CISC vs RISC & x86 vs ARM

CISC vs RISC

Pada saat ini ada dua konsep populer yang berhubungan dengan desain CPU dan set instruksi. Keduanya adalah:
  1. Complex Instruction Set Computing (CISC)
  2. Reduce Instruction Set Computing (RISC).
Semua sistem yang lama (komputer mainframe, komputer mini atau komputer mikro) relatif mempunyai sistem CISC. Walaupun sistem sekarang terdiri atas kedua jenis tersebut. Sistem RISCsaat ini lebih populer karena tingkat kerjanya, dibandingkan dengan sistem CISC. Namun karena biayanya tinggi, sistem RISC hanya digunakan ketika diperlukan kecepatan khusus, keandalan dan sebagainya.

CISC (Complex Instruction-Set Computer)

Complex Instruction Set Computer (CISC) adalah sebuah arsitektur dari set instruksi dimana setiap instruksi akan menjalankan beberapa operasi tingkat rendah, seperti pengambilan dari memory, operasi aritmetika, dan penyimpanan ke dalam memory, semuanya sekaligus hanya di dalam sebuah instruksi. Tujuan utama dari arsitektur CISC adalah melaksanakan suatu perintah cukup dengan beberapa baris bahasa mesin sedikit mungkin. Hal ini bisa tercapai dengan cara membuat perangkat keras prosesor mampu memahami dan menjalankan beberapa rangkaian operasi. Untuk tujuan contoh kita kali ini, sebuah prosesor CISC sudah dilengkapi dengan sebuah instruksi khusus, yang kita beri nama MULT. Saat dijalankan, instruksi akan membaca dua nilai dan menyimpannya ke 2 register yag berbeda, melakukan perkalian operan di unit eksekusi dan kemudian mengambalikan lagi hasilnya ke register yang benar.
Karakteristik CISC yg "sarat informasi" ini memberikan keuntungan di mana ukuran program-program yang dihasilkan akan menjadi relatif lebih kecil, dan penggunaan memory akan semakin berkurang. Karena CISC inilah biaya pembuatan komputer pada saat itu (tahun 1960) menjadi jauh lebih hemat. Memang setelah itu banyak desain yang memberikan hasil yang lebih baik dengan biaya yang lebih rendah, dan juga mengakibatkan pemrograman level tinggi menjadi lebih sederhana, tetapi pada kenyataannya tidaklah selalu demikian.
Contoh-contoh prosesor CISC adalah : System/360, VAX, PDP-11, varian Motorola 68000 , dan CPU AMD dan Intel x86.
CISC mempunyai karakteristrik :
  1. Instruksi berukuran tunggal
  2. Ukuran yang umum adalah 4 byte.
  3. Jumlah mode pengalamatan data yang sedikit, biasanya kurang dari lima buah
  4. Tidak terdapat pengalamatan tak langsung
  5. Tidak terdapat operasi yang menggabungkan operasi load/store dengan operasi aritmetika (misalnya, penambahan dari memori, penambahan ke memori)

RISC (Reduce Instruction Set Computer)

RISC Reduced Instruction Set Computingatau "Komputasi set instruksi yang disederhanakan. Merupakan sebuah arsitektur komputer atau arsitektur komputasi modern dengan instruksi-instruksi dan jenis eksekusi yang paling sederhana. Biasanya digunakan pada komputer berkinerja tinggi seperti komputer vektor.
Bahasa pemprograman memungkinkan programmer dapat mengekspresikan algoritma lebih singkat, lebih memperhatikan rincian, dan mendukung penggunaan pemprograman terstruktur, tetapi ternyata muncul masalah lain yaitu semantic gap, yaitu perbedaan antara operasi-operasi yang disediakan oleh HLL dengan yang disediakan oleh arsitektur komputer, ini ditandai dengan ketidakefisienan eksekusi, program mesin yang berukuran besar,dan kompleksitas kompiler.
Set-set instruksi yang kompleks tersebut dimaksudkan untuk :
  1. Memudahkan pekerjaan kompiler
  2. Meningkatkan efisiensie ksekusi, karena operasi yang kompleks dapat diimplementasikan didalam mikrokode.
  3. Memberikan dukungan bagi HLL yang lebih kompleks dan canggih


RISC mempunyai karakteristik :
  1. One cycle execution time : satu putaran eksekusi.
  2. Prosessor RISC mempunyai CPI (clock per instruction) atau waktu per instruksi untuk setiap putaran. Hal ini dimaksud untuk mengoptimalkan setiap instruksi pada CPU.
  3. Pipelining adalah sebuah teknik yang memungkinkan dapat melakukan eksekusi secara simultan. Sehingga proses instruksi lebih efiisien.
  4. Large number of registers: Jumlah register yang sangat banyak.
  5. RISC didesain dimaksudkan untuk dapat menampung jumlah register yang sangat banyak untuk mengantisipasi agar tidak terjadi interaksi yang berlebih dengan memory.
  6. Rangkaian instruksi built-in pada processor yang terdiri dari perintah-perintah yang lebih ringkas dibandingkan dengan CISC.
  7. RISC memiliki keunggulan dalam hal kecepatannya sehingga banyak digunakan untuk aplikasi-aplikasi yang memerlukan kalkulasi secara intensif.

Perbandingan antara RISC dengan CISC

Cara sederhana untuk melihat kekurangan dan kelebihan dari CISC dan RISC adalah dengan membandingkannya secara langsung. Pada tahap perbandingan ini dicoba dengan menghitung perkalian dua bilangan dalam memori. Memori tersebut terbagi menjadi beberapa lokasi yang diberi nomor 1(baris): 1 (kolom) hingga 6:4. Unit eksekusi bertanggung-jawab untuk semua operasi komputasi. Namun, unit eksekusi hanya beroperasi untuk data yang sudah disimpan kedalam salah satu dari 6 register (A, B, C, D, Eatau F). Misalnya, kita akan melakukan perkalian (product) dua angka, satu di simpan di lokasi 2:3 sedangkan lainnya di lokasi 5:2, kemudian hasil perkalian tersebut dikembalikan lagi kelokasi 2:3



  1. Menggunakan Pendekatan RISC
    Prosesor RISC hanya menggunakan instruksi-instruksi sederhana yang bisa dieksekusi dalam satu siklus. Dengan demikian, instruksi ‘MULT’ sebagaimana dijelaskan sebelumnya dibagi menjadi tiga instruksi yang berbeda, yaitu“LOAD”, yang digunakan untuk memindahkan data dari memori kedalam register, “PROD”, yang digunakan untuk melakukan operasi produk (perkalian) dua operan yang berada di dalam register (bukan yang ada di memori) dan “STORE”, yang digunakan untuk memindahkan data dari register kembali kememori. Berikut ini adalah urutan instruksi yang harus dieksekusi agar yang terjadi sama dengan instruksi “MULT” pada prosesor RISC (dalam 4 baris bahasa mesin):
    LOAD A, 2:3
    LOAD B, 5:2
    PROD A, B
    STORE 2:3, A

  2. Menggunakan Pendekatan CISC
    Tujuan utama dari arsitektur CISC adalah melaksanakan suatu perintah cukup dengan beberapa baris bahasa mesin sedikit mungkin. Hal ini bisa tercapai dengan cara membuat perangkat keras prosesor mampu memahami dan menjalankan beberapa rangkaian operasi.
    Sebuah prosesor CISC sudah dilengkapi dengan sebuah instruksi khusus, yang diberi nama MULT. Saat dijalankan, instruksi akan membaca dua nilai dan menyimpannya ke 2 register yang berbeda, melakukan perkalian operan di unit eksekusi dan kemudian mengambalikan lagi hasilnya ke register yang benar. Jadi instruksi-nya cukup satu saja.
    MULT 2:3, 5:2

Perbedaan CISC dan RISC:
CISC:
  • Penekanan pada perangkat keras (hardware).
  • Termasuk instruksi kompleks multi-clock.
  • Memori-ke-memori: “LOAD” dan “STORE” saling bekerjasama..
  • Ukuran kode kecil, kecepatan rendah.
  • Transistor digunakan untuk menyimpan instruksi-instruksi kompleks.
RISC
  • Penekanan pada perangkat lunak (software).
  • Single-clock, hanya sejumlah kecil instruksi.
  • Register ke register: “LOAD” dan “STORE” adalah instruksi - instruksi terpisah.
  • Ukuran kode besar, kecepatan (relatif) tinggi.
  • Transistor banyak dipakai untuk register memori.

x86 vs ARM

1.  x86

Arsitektur x86 adalah rancangan Set Instruksi Komputer Kompleks (Complex Instruction Set Computer) dengan panjang instruksi yang bervariasi. Word disimpan dengan urutan endian-kecil. Kompatibilitas mundur menjadi motivasi terkuat dalam pengembangan arsitektur x86 (keputusan ini menjadi sangat penting dan sering dikritik, terutama oleh pesaing dari pendukung arsitektur prosesor lainnya, yang dibuat frustasi oleh sukses yang berkelanjutan dari arsitektur ini yang secara umum dipandang memilki banyak kelemahan). Prosesor-prosesor terkini dari x86 menerapkan beberapa langkah penerjemah (dekoder) “tambahan” untuk (saat eksekusi) memecah (sebagian besar) instruksi x86 kedalam potongan-potongan kecil instruksi (dikenal dengan “micro-ops”) yang selanjutnya dieksekusi oleh arsitektur setara dengan arsitektur RISC.

  1. Mode Real (Real Mode)
    Intel 8086 dan 8088 dilengkapi dengan 14 16-bit register. Empat diantaranya (AX, BX, CX, DX) dirancang sebagai fungsi umum (general purpouse) (meskipun masing-masing juga memiliki fungsi khusus tambahan; misalnya hanya register CX yang dapat digunakan sebagai penghitung (counter) dalam instruksi loop). Setiap register dapat diakses sebagai dua byte (8-bit) terpisah (jadi byte-atas BX’s dapat diakses sebagai BH dan byte-bawah-nya sebagai BL). Selain itu, terdapat juga empat register segmen (CS, DS, SS dan ES). Register ini digunakan untuk membangun alamat memori. Ada juga dua register penunjuk (pointer) (SP yang menunjuk pada titik awal stack, dan BP yang dapat menunjuk pada titik manapun dalam stack atau memori). Ada dua register indeks (SI dan DI) yang dapat digunakan sebagai penunjuk dalam array. Dan terakhir, ada sebuah register penanda (register flag) yang terdapat didalamnya penanda-penanda seperti carry, overflow, zero dan lain-lain, dan juga sebuah penunjuk instruksi (instruction pointer – IP) yang menunjuk ke alamat instruksi yang sedang dieksekusi.

    Dalam mode real, memori diakses secara tersegmentasi. Hal ini dilakukan dengan menggeser (shifting) alamat segmen 4 bit ke kiri dan menambah sebuah ofset untuk menghasilkan alamat akhir sepanjang 20-bit. Contohnya, jika DS berisi nilai A000h dan SI berisi nilai 5677h, DS:SI akan mengacu pada titik alamat real DS × 16 + SI = A5677h. Jadi jumlah total alamat memori yang dapat diakses dalam mode real adalah 220 byte, atau 1 MiB, jumlah yang sangat mengesankan di tahun 1978. Seluruh alamat memori terbagi dalam segmen dan ofset; dan setiap tipe akses (kode, data, atau stack) memiliki register segmen tertentu (untuk data register yang digunakan DS, untuk kode digunakan register CS, dan untuk stack digunakan SS). Untuk mengakses data, register segmen dapat secara langsung dipilih (dengan melakukan ubah-paksa (override) prefik segmen) dari empat register segmen yang tersedia.

    Dengan aturan ini, dua pasang segmen/ofset yang berbeda bisa mengacu ke lokasi memori absolut yang sama. Jadi bila DS berisi A111h dan SI 4567h, DS:SI akan menunjuk ke alamat A56777h seperti di atas. Lebih lanjut, CS dan SS berperan vital bagi program agar berfungsi secara benar, sehingga hanya DS dan ES yang dapat dipakai untuk mengacu ke segmen data diluar program (atau lebih tepatnya, diluar segmen program yang sedang dieksekusi) atau stack. Skema ini, yang semula bertujuan mempertahankan kompatibilitas dengan Intel 8085, sering dikeluhkan oleh para programer (walaupun beberapa programer tidak terlalu mempedulikannya, dan popularitas x86 sebelum tahun-tahun mode proteksi diperkenalkan membuktikan bahwa hal ini bukan cacat yang sangat serius).

    Selain itu, 8086 juga memiliki 64 KB alamat I/O 8-bit (atau 32 K-word dari 16-bit), dan satu 64 KB (satu segmen) stack di memori yang didukung oleh hardware (memakai register-register SS, SP, dan BP). Hanya word (2 byte) yang bisa di-push ke stack. Stack tumbuh ke bawah (ke arah alamat yang lebih rendah secara numerik), dengan ujung bawah diacu oleh SS:SP. Ada 256 interrupt yang dapat diaktifkan oleh hardware maupun software. Interrupt tersebut bisa bertingkat, memanfaatkan stack untuk menyimpan alamat balik.

    CPU x86 32-bit yang modern masih mendukung real mode, bahkan memulai operasi pada real mode setelah reset. Kode real mode yang dijalankan pada prosesor-prosesor tersebut bisa memanfaatkan register 32-bit dan register segmen tambahan (FS dan GS) yang mulai tersedia sejak 80386.

  2. Mode terproteksi 16-bit (16-bit protected mode)
    Prosesor 80286 dapat menjalankan Operating System yang menggunakan Mode Real 16-bit prosesor 8086 tanpa perubahan pada OS, namun prosesor ini juga mempunyai mode lain, yaitu mode terproteksi. Mode terproteksi memungkinkan program untuk mengakses RAM yang berukuran 16MB, dan memiliki memori virtual hingga 1GB. Hal ini dimungkinkan karena mode terproteksi menggunakan register segmen untuk menyimpan index ke sebuah tabel segmen. Pada 80286, terdapat dua buah tabel segmen, yaitu tabel GDT dan tabel LDT, masing-masing dapat menyimpan hingga 8192 perinci segmen, tiap segment memberi akses untuk memori sebesar hingga 64KB. Tabel segmen ini menyimpan alamat dasar yang berukuran 24-bit, yang akan digunakan untuk menghitung alamat absolut dari memori yang akan digunakan. Selain itu, segmen-segmen ini dapat diberikan salah satu dari empat jenis level akses.

    Walaupun dibuatnya prosesor ini merupakan pengembangan yang baik, prosesor ini sangat jarang digunakan karena mode terproteksi tidak dapat menjalankan program-program yang berjalan mode real yang sudah ada sebagai proses, karena program-program mode real sering mengakses perangkat keras secara langsung dan beberapa ada yang melakukan aritmatika segmen, sehingga tidak dapat dijalankan pada mode terproteksi.

2. ARM

Prosesor berasitektur ARM merupakan prosesor yang paling banyak digunakan dalam perangkat mobile saat ini. Desainnya yang sederhana, membuat prosesor ARM cocok untuk aplikasi berdaya rendah.

Bebeda dari Intel dan AMD yang memproduksi dan menjual prosesor rancangan mereka sendiri. ARM hanya menjual lisensi hak paten desain prosesor mereka kepada berbagai perusahaan manufaktur semikonduktor.

Lisensi arsitektur proseor ARM saat ini dimiliki oleh Alcatel, Atmel, Broadcom, Cirrus Logic, Digital Equipment Corporation, Freescale, Intel melalui DEC, LG, Marvell Technology Group, NEC, NVIDIA, NXP Semiconductors, OKI, Quallcomm, Samsung, Sharp, ST Microelectronics, Symbios Logic, Texas Instruments, VLSI Technology, Yamah dan ZiiLABS. Dalam situs resmi perusahaan, ARM mengklaim telah menjual 30 miliar unit prosesor dan lebih dari 16 juta prosesor terjual setiap harinya.

Pada awalnya, Advanced RISC Machines (ARM) yang didirikan pada tahun 1990 ini merupakan sebuah perusahaan patungan antara Acorn Computers, Apple Computer (sekarang Apple Inc), dan VLSI Technology. Pada tahun 1998, Advanced RISC Machines berganti nama menjadi ARM Holdings. Perusahaan ini fokus pada penelitan dan pengembangan desain arsitektur prosesor.

Arsitektur ARM menjadi dasar bagi sebagian besar central processing unit (CPU) di berbagai perangkat mobile. ARM mempunyai desain arsitektur Cortex seri M, R, A, hingga seri A57. Mereka juga memiliki desain arsitektur untuk graphics processing unit (GPU) bernama Mali.

Menurut data dari ARM Holding, arsitektur ARM menguasai 95 persen arsitektur prosesor smartphone, 35 persen televisi digital, serta 10 persen komputer mobile. Hampir semua tablet dan smartphone unggulan, baik yang berbasis Android, iOS, BlackBerry, hingga Windows Phone, memakai prosesor arsitektur ARM. Beberapa konsol game portabel, seperti Game Boy Advance, Nintendo DS, dan PlayStation Portable, memakai prosesor ARM.

ARM juga mengekspansi bisnisnya ke pasar komputer server. Pada Mei 2012, Dell mengumumkan Copper, server yang memakai prosesor Marvell dengan desain ARM.

Pada Oktober 2012, ARM juga mengumumkan prosesor 64-bit dari keluarga Cortex-A57 yang saat ini digunakan oleh iPhone 5s, iPad Air dan iPad Mini generasi kedua. Samsung juga telah membeli lisensi desain ARM 64-bit untuk smartphonenya yang akan dirilis di 2014.

Prosessor X86
Prosessor ARM
  • Arsitektur ARM merupakan arsitektur prosesor 32-bit RISC yang dikembangkan oleh ARM Limited. Dikenal sebagai Advanced RISC Machine dimana sebelumnya dikenal sebagai Acorn RISC Machine. Pada awalnya merupakan prosesor desktopyang sekarang didominasi oleh keluarga x86.


  • Desainnya  yang sederhana membuat prosesor ARM cocok untuk aplikasi berdaya rendah.Prosesor ARM digunakan di berbagai bidang seperti elektronik umum, termasuk PDA, mobile phone, media player, music player, game console genggam, kalkulator dan periperal komputer seperti hard disk drive dan router.

  • prosesor yang menggunakan perintah sederhana misal diberi  perintah menghitung 24 ARM akan mengartikan perintah 24  sebagai 2*2*2*2

  • prosesor RISC (ARM)cenderung memiliki transistor jauh lebih sedikit daripada prosesor CISC dengan  transistor  yang lebih sedikit  itu berarti  daya yang  digunakan juga lebih kecil, lebih sedikit panas, dan ruang yang sangat kecil, sehingga sangat cocok untuk perangkat-perangkat kecil dengan kemepuan terbatas.

  • operasi  floating point dan operasi pembagian tidak termasuk dalam mode pengalamatan prosessor RISC(ARM) operasi  floating point dann operasi pembagian  biasanya diturunkan untuk coprocessors.

  • Proyek Acorn RISC Machine resmi dimulai pada Oktober 1983. VLSI Technology, Inc dipilih sebagai mitra dalam memproduksi chip silikon dimana sebelumnya telah memproduksi ROM dan custom chip sebelumnya. Proses desain dipimpin oleh Wilson dan Furber, dengan tujuan utama latensi rendah (low-latency) pada penanganan input/output (interupsi) seperti pada prosesor MOS Technology 6502. Arsitektur 6502 memberikan pengembang mesin yang cepat dalam pengaksesan memory tanpa harus menggunakan perangkat direct access memory yang mahal. VLSI memproduksi chip ARM pertama kali pada 26 April 1985 yang berhasil bekerja dan dikenal sebagai ARM1. Dan disusul dengan ARM2 yang diproduksi pada tahun berikutnya dan terus berkembang.

  • Pada akhir 1980-an, Apple Computer dan VLSI Technology memulai kerja sama dengan Acorn untuk prosesor ARM berikutnya. Hasil kerja sama Apple-ARM menghasilkan ARM6 pada awal tahun 1992. Apple menggunakan ARM6 (ARM 610) sebagai prosesor pada PDA Apple Newton dan pada tahun 1994 Acorn menggunakan ARM6 pada komputer PC RISC. Pada frekuensi 233 MHz, prosesor ini hanya mengonsumsi daya sebesar 1 Watt dan versi berikutnya lebih kecil dari itu.

  •  Arsitektur x86 saat ini mendominasi komputer desktop, komputer portabel, dan pasar server sederhana. Bisa menjalankan program windows karena memang Windows di program untuk beroprasi di lingkungan x86.















  • prosesor yang menggunakan perintah rumit misal diberi  perintah menghitung 24×86 akan  akan mengartikan 24 sebagai 2^4….


  • prosesor CISC(x86) memiliki transistor yang lebih banyak otomatis daya  yang dibutuhkan lebih besar, dan tidak menutup kemungkinan prosesor yang memiliki banyak transistor akan lebih cepat panas,serta membutuhkan memeori yang mencukupi(besar) sehingga tidak cocok untuk perangkat-perangkat kecil



  • operasi floating point dan operasi pembagian termasuk dalam mode pengalamatan prosessor CISC(x86)




  • Arsitektur x86 pertama kali hadir melalui 8086 CPU pada tahun 1978; Intel 8086 adalah pengembangan dari mikroprosesor Intel 8080 (yang dibangun mengikuti arsitektur dari 4004 dan 8008), dan program bahasa rakitan dari 8080 dapat diterjemahkan secara mekanik ke program yang setara ke bahasa rakitan untuk 8086. Arsitektur ini diadaptasi (dengan versi yang lebih sederhana dari versi8088) tiga tahun kemudian sebagai standar dari CPU padaIBM PC. Kehadiran platform PC secara luas membuat arsitektur x86 menjadi arsitektur CPU yang paling sukses selama ini. (Rancangan CPU lainnya yang sangat sukses, yang dibagun berdasarkan 8080 dan kompatible pada set-instruksi hingga pada tingkatan bahasa-mesin biner adalah arsitekturZilog Z80.)

  • Arsitektur ini telah dua kali diperluas untuk mengakomodasi ukuran wordyang lebih besar. Pada tahun 1985, Intel mengumumkan rancangan generasi 386 32-bit yang menggantikan rancangan generasi 286 16-bit. Arsitektur 32-bit ini dikenal dengan nama x86-32 atau IA-32 (singkatan dari Intel Architecture, 32-bit). Kemudian pada tahun 2003,AMD memperkenalkan Athlon 64, yang menerapkan secara lebih jauh pengembangan dari arsitektur ini menuju ke arsitektur 64-bit, dikenal dengan beberapa istilah x86-64AMD64 (AMD), EM64Tatau IA-32e (Intel), dan x64 (Microsoft).













http://rachmatsn.blogspot.com/2013/05/cisc-dan-risc-pada-saat-iniada-dua.html
http://ernisusanti33.wordpress.com/tag/sejarah-intel-x86/
http://www.jendelatekno.com/2013/10/24/prosesor-arm-prosesor-30-milyar-perangkat-mobile/
http://blog.ub.ac.id/tantiola/2013/03/28/perbedaan-prosessor-x86-dan-arm/


Read More...

Arsitektur Komputer Von Neumann dan Arsitektur Komputer Harvard

Arsitektur von Neumann

Arsitektur Von Neumann adalah arsitektur komputer yang menempatkan program (ROM=Read Only Memory) dan data (RAM=Random Access Memory) dalam peta memori yang sama. Arsitektur ini memiliki address dan data bus tunggal untuk mengalamati program (instruksi) dan data. Arsitektur von Neumann atau Mesin Von Neumann merupakan arsitektur yang diciptakan oleh John von Neumann pada tahun 1903-1957. Yang mana hampir semua komputer saat ini menggunakan Arsitektur buatan John Von Neumann. Arsitektur Von Neumann ini menggambarkan komputer dengan empat bagian utama yaitu:
  • Unit Aritmatika dan Logis (ALU)
  • unit kontrol (CU)
  • memori
  • alat masukan I/O

Diagram blok hubungan antara komponen CPU:


Diagram Arsitektur Von Neumann:




Cara kerja:
  1. Komunikasi Antara Memori dan Unit Pengolahan
    Komunikasi antara memori dan unit pengolahan terdiri dari dua register :

    • Alamat memori Register (MAR).
    • Memori data Register (MDR


    Untuk membaca:
    • Alamat lokasi diletakkan Maret.
    • Memori diaktifkan untuk membaca.
    • Nilai ini dimasukkan ke dalam MDR oleh memori.


    Untuk menulis:
    • Alamat lokasi diletakkan Maret
    • Data dimasukkan ke dalam MDR.
    • Tulis Aktifkan sinyal menegaskan.
    • Nilai dalam MDR ditulis ke lokasi yang ditentukan.

  2. CPU

    • Hardware unit seperti ALU , register, memori, dll, yang dihubungkan bersama ke dalam jalur data.
    • Aliran bit sekitar jalur data-dikendalikan oleh "gerbang" yang memungkinkan bit mengalir atau tidak mengalir (off) melalui jalur data.
    • Instruksi biner (1 = on, 0 = off) yang mengontrol aliran yang disebut micro-instruksi.





  3. Memori Operasi
    Ada dua operasi kunci pada memori:
    • fetch( address ) nilai kembali tanpa mengubah nilai yang disimpan di alamat itu.
    • store( address, value ) menulis nilai baru ke dalam sel pada alamat yang diberikan.



Keuntungan model Von Neumann:

  1. Fleksibilitas pengalamatan program dan data.
  2. Program selalu ada di ROM dan data selalu ada di RAM.
  3. Arsitektur Von Neumann memungkinkan prosesor untuk menjalankan program yang ada didalam memori data (RAM).

 Kelemahan model Von Neumann:

  1. Bus tunggalnya itu sendiri. Sehingga instruksi untuk mengakses program dan data harus dijalankan secara sekuensial dan tidak bisa dilakukan overlaping untuk menjalankan dua isntruksi yang berurutan.
  2. bandwidth program harus sama dengan banwitdh data. Jika memori data adalah 8 bits maka program juga harus 8 bits.
  3. prosesor Von Neumann membutuhkan jumlah clock CPI (Clock per Instruction) yang relatif lebih banyak sehingga eksekusi instruksi dapat menjadi relatif lebih lama.




 Arsitektur Komputer Harvard.

Arsitektur Harvard memiliki dua memori yang terpisah satu untuk program (ROM) dan satu untuk data (RAM), yang mana arsitektur ini merupkan kebalikkan dari arsitektur komputer model von nuemann, jika von neuman mengabungkan ROM dan RAM menjadi satu maka arsitektur harvard maka kedua memori tersebut dipisahkan.

Pada mikroprosesor yang berarsitektur Harvard, overlaping pada saat menjalankan instruksi bisa terjadi. Satu instruksi biasanya dieksekusi dengan urutan fetch (membaca instruksi ), decode (pengalamatan), read (membaca data), execute (eksekusi) dan write (penulisan data) jika perlu. Secara garis besar ada dua hal yang dilakukan prosesor yaitu fetching atau membaca perintah yang ada di memori program (ROM) dan kemudian diikuti oleh executing berupa read/write dari/ke memori data (RAM). Karena pengalamatan ROM dan RAM yang terpisah, ini memungkinkan CPU untuk melakukan overlaping pada saat menjalankan instruksi. Dengan cara ini dua instruksi yang beurutan dapat dijalankan pada saat yang hampir bersamaan. Yaitu, pada saat CPU melakukan tahap executing instruksi yang pertama, CPU sudah dapat menjalankan fetching instruksi yang ke-dua dan seterusnya. Ini yang disebut dengan sistem pipeline, sehingga program keseluruhan dapat dijalankan relatif lebih cepat.

Pada arsitektur Harvard, lebar bit memori program tidak mesti sama dengan lebar memori data. Misalnya pada keluarga PICXX dari Microchip, ada yang memiliki memori program dengan lebar 12,14 atau 16 bits, sedangkan lebar data-nya tetap 8 bits. Karena bandwith memori program yang besar (16 bits), opcode dan operand dapat dijadikan satu dalam satu word instruksi saja. Tujuannya adalah supaya instruksi dapat dilakukan dengan lebih singkat dan cepat.
Kedua hal di atas inilah yang membuat prosesor ber-arsitektur Harvard bisa memiliki CPI yang kecil. PICXX dari Microchip dikenal sebagai mikroprosesor yang memiliki 1 siklus mesin (machine cycle) untuk tiap instruksinya, kecuali instruksi percabangan.

Dari segi kapasitas memori, tentu arsitektur Harvard memberi keuntungan. Karena memori program dan data yang terpisah, maka kavling total memori program dan data dapat menjadi lebih banyak. Mikrokontroler 8bit Motorola 68HC05 memiliki peta memori 64K yang dipakai bersama oleh RAM dan ROM. Oleh sebab itu pengalamatan ROM dan RAM hanya dapat mencapai 64K dan tidak lebih. Sedangkan pada mikrokontroler Intel keluarga 80C51 misalnya, memori program (ROM) dan memori data (RAM) masing-masing bisa mencapai 64K.

Tetapi ada juga kekurangannya, arsitektur Harvard tidak memungkinkan untuk menempatkan data pada ROM. Kedengarannya aneh, tetapi arsitektur ini memang tidak memungkinkan untuk mengakses data yang ada di ROM. Namun hal ini bisa diatasi dengan cara membuat instruksi dan mekanisme khusus untuk pengalamatan data di ROM. Mikroprosesor yang memiliki instruksi seperti ini biasanya disebut ber-arsitektur Modified Harvard. Instruksi yang seperti ini dapat ditemukan pada keluarga MCS-51 termasuk Intel 80C51, P87CLXX dari Philips dan Atmel AT89LSXX.

DIAGRAM BLOK ARSITEKTUR HARDVARD

DIAGRAM ARSITEKTUR MODEL KOMPUTER HARDVARD




Kelebihan Arsitektur Komputer Model Harvard:
  • Bandwidth program tidak mesti sama dengan bandwidth data.
  • Opcode dan operand dapat dijadikan dalam satu word instruksi saja.
  • Instruksi dapat dilakukan dengan lebih singkat dan cepat
  • Memori program dan data yang terpisah, maka kavling total memori program dan data dapat menjadi lebih banyak.
Kekurangan Arsitektur Komputer Model Harvard:
  • Arsitektur Harvard tidak memungkinkan untuk menempatkan data pada ROM.
  • arsitektur in tidak memungkinkan untuk mengakses data yang ada di ROM

sumber
http://dejavapoetra.blogspot.com/2011/10/arsitektur-komputer-von-neumann-harvard.html#
http://himaelektropnp.blogspot.com/2011/02/arsitektur-mikroprosesor-von-neuman-dan.html


Read More...

EVOLUSI KOMPUTER ( Computer Evolutions)

SEJARAH PERKEMBANGAN KOMPUTER DARI AWAL SAMPAI SEKARANG
Alat-alat hitung yang mendasari munculnya komputer antara lain:
Hitung Tradisional dan Kalkulator Mekanik Abacus,pascaline (kalkulator roda numerik) dibuat oleh Blaise Pascal, yang kemudian disempurnakan oleh Gottfred Wilhem von Leibniz (1646-1716) orang jerman, arithometer dibuat oleh Charles Xavier Thomas de Colmar, Analytical Engine dibuat oleh Charles Babbage (1791-1871), komputer elektrik dibuat oleh ,John V. Atanasoff dan Clifford Berry (1903) dengan prinsip aljabar boolean.


SEJARAH PERKEMBANGAN KOMPUTER MENURUT GENERASI

Sejak dahulu kala, proses pengolahan data telah dilakukan oleh manusia. Manusia juga menemukan alat-alat mekanik dan elektronik untuk membantu manusia dalam penghitungan dan pengolahan data supaya bisa mendapatkan hasil lebih cepat. Komputer yang kita temui saat ini adalah suatu evolusi panjang dari penemuan-penemuan manusia sejah dahulu kala berupa alat mekanik maupun elektronik.Saat ini komputer dan piranti pendukungnya telah masuk dalam setiap aspek kehidupan dan pekerjaan


1.    KOMPUTER GENERASI I (1940-1959)

Ciri ciri komputer pada generasi pertama adalah sebagai berikut :
·         Komponen elektronikanya dari Tabung Hampa (Vacuum Tube)
·         Program dibuat dalam bahasa mesin (Machine Language), yang programnya tersimpan dalam memori  komputer. Programnya masih menggunakan bahasa mesin dengan menggunakan kode 0 dan 1 dalam urutan tertentu.
Sifat-sifatnya:
·         Ukurannya besar dan memerlukan tempat yang sangat luas
·         Memerlukan banyak Pendingin (AC) karena banyak mengeluarkan panas
·         Prosesnya relatif lambat
·         Kapasitas untuk menyimpan data kecil.
Pabrik yang memproduksi; UNIVAC, IBM, BURROGHS, HONEYWELL
Contoh mesin; ENIAC, MARK II, EDSAC, MARK III, UNIVAC I & II, IBM 650, ADVAC

ENIAC

Electronic Numerical Integrator and Calculator (ENIAC) merupakan generasi pertama komputer digital elektronik yang digunakan untuk kebutuhan umum. Pgamroposal ENIAC dirancang oada tahun 1942, dan mulai dibuat pada tahun 1943 oleh Dr. John W. Mauchly dan John Presper Eckert di Moore School of Electrical Engineering (University of Pennsylvania) dan baru selesai pada tahun 1946.

gambar ENIAC pertama

ENIAC berukuran sangat besar, untuk penempatannya membutuhkan ruang 500m2. ENIAC menggunakan 18.000 tabung hampa udara, 75.000 relay dan saklar, 10.000 kapasitor, dan 70.000 resistor. Ketika dioperasikan, ENIAC membutuhkan daya listrik sebesar 140 kilowatt dengan berat lebih dari 30 ton, dan menempati ruangan 167 m2.

MESIN VON NEUMANN

Mesin ini dikembangkan oleh seorang ahli matamatika yaitu John Von Neumann yang juga merupakan kosultan proyek ENIAC. Mesin ini dikembangkan mulai tahun 1945 yang memberikan gagasan sebagai stored-program concept, yaitu sebuah konsep untuk mempermudah proses program agar dapat direpresentasikan dalam bentuk yang cocok untuk penyimpanan dalam memori untuk semua data. Gagasan ini juga dibuat hampir pada waktu
yang bersamaan dengan Turing. Selanjutnya Von Neumann mempublikasikannya dengan nama baru yaitu: Electronic Discrete Variable Computer (EDVAC).
Semua input dan output dilakukan melalui kartu plong. Dalam waktu satu detik, ENIAC mampu melakukan 5.000 perhitungan dengan 10 digit angka yang bila dilakukan secara manual oleh manusia akan memakan waktu 300 hari, dan ini merupakan operasi tercepat saat itu dibanding semua komputer mekanis lainnya. ENIAC dioperasikan sampai tahun 1955. Teknologi yang digunakan ENIAC adalah menggunakan tabung vakum yang dipakai oleh Laboratorium Riset Peluru Kendali Angkatan Darat (Army’s Ballistics Research Laboratory-LBR) Amerika Serikat.Selanjutnya mesin ini dikembangkan kembali dengan perbaikan-perbaikan pada tahun 1947, yang disebut sebagai generasi pertama komputer elektronik terprogram modern yang disediakan secara komersial dengan nama EDVAC, EDSAC (Electronic Delay Storage Automatic Calculator), dan UNIVAC1 dan 2 (Universal Automatic Computer) yang dikembangkan oleh Eckert dan Mauchly. Untuk pertama kalinya komputer tersebut menggunakan Random Access Memory (RAM) untuk menyimpan bagian-bagian dari data yang diperlukan secara cepat.
Dengan konsep itulah John Von Neumann dijuluki sebagai bapak komputer modern pertama di dunia yang konsepnya masih digunakan sampai sekarang. John Von Neumann lahir di Budapest, Hongaria 28 Desember 1903 dan meninggal pada tanggal 8 Februari 1957 di Washington DC, AS. Von Neumann sangat cerdas dalam matematika dan angka-angka. Pada usia eman tahun dia sudah dapat menghitung pembagian angka dengan delapan digit tanpa menggunakan kertas atau alat bantu lainnya. Pendidikannya dimulai di University of Budapest pada tahun 1921 di jurusan kimia. Tapi kemudian dia kembali kepada kesukaannya, matematika, dan menyelesaikan doktoralnya di bidang matematika di tahun 1928. di tahun 1930 dia mendapatakan kesempatan pergi ke Princeton University (AS). Pada tahun 1933, Institute of Advanced Studies dibentuk dan dia menjadi salah satu dari enam professor matematika di sana. Von Neumann kemudian menjadi warga negara Amerika.Von Neumann juga merupakan orang pertama yang mencetuskan istilah “Game Theory” yang kemudian berkembang menjadi ilmu tersendiri. Game theory bermanfaat untuk mensimulasikan permainan, seperti catur, bridge, dan sejenisnya. Dia juga bermanfaat untuk mensimulasikan perang.

KOMPUTER KOMERSIAL PERTAMA 


Gambar Komputer Univac

Pada pertengahan tahun 1950 UNIVAC mengalami kemajuan dalam beberapa aspek pemrograman tingkat lanjut, sehingga merupakan komputer general purpose pertama yang didesain untuk menggunakan angka dan huruf dan menggunakan pita magnetik sebagai media input dan output-nya. Inilah yang dikatakan sebagai kelahiran industri komputer yang didominasi oleh perusahaan IBM dan Sperry.Komputer UNIVAC pertama kali digunakan untuk keperluan kalkulasi sensus di AS pada tahun 1951,dan dioperasikan sampai tahun 1963.
KOMPUTER-KOMPUTER IBM
IBM memproduksi IBM 605 dan IBM 701 pada tahun 1953 yang berorientasi pada aplikasi bisnis dan merupakan komputer paling populer sampai tahun 1959. IBM 705 dikeluarkan untuk menggantikan IBM 701 yang kemudian memantapkan IBM dalam industri pengolahan data.

2.    KOMPUTER GENERASI II (1959-1964)
  
Komputer generasi kedua ditandai dengan ciri-ciri sebagai berikut:
·         Menggunakan teknologi sirkuit berupa transistor dan diode untuk menggantikan tabung vakum.
·         Sudah menggunakan operasi bahasa pemrograman tingkat tinggi seperti FORTRAN dan COBOL.
·         Kapasitas memori utama dikembangkan dari Magnetic Core Storage.
·         Kebutuhan daya listrik lebih kecil.
·         Orientasi program tidah hanya tertuju pada aplikasi bisnis, tetapi juga aplikasi teknik.
Sifat-sifatnya:
·         Ukuran fisiknya sudah lebih kecil dibanding komputer generasi pertama.
·         Tidak banyak mengeluarkan panas
·         Menggunakan simpanan luar berupa Magnetic Tape dan Magnetic Disk.
·         Mulai mengenal Tele Processing (time sharing yang memungkinkan beberapa user dapat memakai kokmputer secara bersama-sama) dan real time.
·         Proses operasi sudah lebih cepat, yaitu jutaan operasi perdetik.
·         Kapasitas untuk menyimpan data semakin besar.
Pabrik yang memproduksi; UNIVAC, IBM, BURROGHS, HONEYWELL, CDC (Control Data Corporation), NCR
Contoh mesin; IBM (IBM 1620, IBM 1401, IBM 7070, IBM 7080, IBM 7094), UNIVAC III, CDC 6600 Super dan CDC 7600, BURROGHS 5500, HONEYWELL 400, PDP 1 & 5

UNIVAC III

Dibanding dengan tabung, teknologi transistor jauh lebih efisien sebagai switch dan dapat diperkecil ke skala mikroskopik. Pada tahun 2001 peniliti Intel telah memperkenalkan silikon paling kecil dan paling cepat di dunia, dengan ukuran 20 nanometer ata sebanding dengan sepermiliar meter, yang akan digunakan pada prosesor dengan kecepatan 20 GHz (Giga Hertz). Era ini juga menandakan permulaan munculnya minikomputer yang merupakan terbesar kedua dalam keluarga komputer. Harganya lebih murah dibanding dengan generasi pertama. Komputer DEC PDP-8 adalah minikomputer pertama yang dibuat tahun 1964 untuk pengolahan data komersial.
Jenis-jenis komputer lain yang muncul pada generasi ini diantaranta UNIVAC III, UNIVAC SS80, SS90, dan 1107, IBM 7070, 7080, 1400, dan 1600.
3.    KOMPUTER GENERASI III (1964-1970)
  
Komputer Generasi III IBM S/360 
Pada generasi ketiga inilah teknologi Integrated Circuit (IC) menjadi ciri utama karena mulai digunakan pada sebuah perangkat komputer hingga generasi sekarang. Komponen IC berbentuk hybrid atau solid (SLT) dan monolithyc (MST). SLT adalah transistor dan diode diletakkan terpisah dalam satu tempat sedangkan MST adalah elemen transistor, diode, dan resistor diletakkan bersama dalam satu chip. MST lebih kesil tetapi mempunyai kemmapuan lebih besar dibanding SLT.
IC dibuat pertama kali oleh Texas Istruments dan Fairchild Semiconductor pada tahun 1959 yang hanya berisi enam transistor. Bisa kita bandingkan bahwa prosesor saat ini yang kita gunakan telah memiliki jutaan, puluhan, ratusan juta transistor, bahkan telah didesain prosesor dengan miliaran transistor. Sebuah perkembangan yang luar biasa dalam masa kurang dari setengah abad.


Komputer Generasi III UNIVAC 1108

Ciri-ciri komputer generasi ketiga adalah:
·         Karena menggunakan IC maka kinerja komputer menjadi lebih cepat dan tepat. Kecepatannya hampir 10.000 kali lebih cepat dari komputer generasi pertama.
·         Peningkatan dari sisi software.
·         Kapasitas memori lebih besar, dan dapat menyimpan ratusan ribu karakter (sebelumnya hanya puluhan ribu).
·         Menggunakan media penyimpanan luar disket magnetik (external disk) yang sifat pengaksesan datanya secara acak (random access) dengan kapasitas besar (jutaan karakter).
·         Penggunaan listrik lebih hemat.
·         Kemampuan melakukan multiprocessing dan multitasking.
·         Telah menggunakan terminal visual display dan dapat mengeluarkan suara.
·         Harganya semakin murah.
·         Kemampuan melakukan komunikasi dengan komputer lain.

Sifat-sifatnya: 
·         Ukurannya lebih kecil dari komputer generasi kedua.
·         Mulai mengenal Multi Programming dan Multi Processing
·         Adanya integrasi antara Software dan Hardware dalam Sistem Operasi
·         Prosesnya sangat cepat
·         Kapasitas untuk menyimpan data lebih besar.
·         Contoh IBM S/360, UNIVAC 1108, UNIVAC 9000, Burroughts 5700, 6700, 7700, NCR Century, GE 600, CDC 3000, 6000, dan 7000, PDP-8, dan PDP-11 
·         Pabrik pembuatnya adalah Digital Equipment Corporation merupakan contoh-contoh komputer generasi ketiga.

4.    KOMPUTER GENERASI IV (1970-1980-AN)
 Komputer Generasi IV: IBM 370


Komputer generasi keempat merupakan kelanjutan dari generasi III. Bedanya bahwa IC pada generasi IV lebih kompleks dan terintegrasi. Sejak tahun 1970 ada dua perkembangan yang dianggap sebagai komputer generasi IV. Pertama, penggunaan Large Scale Integration (LSI) yang disebut juga dengan nama Bipolar Large Large Scale Integration. LSI merupakan pemadatan beribu-ribu IC yang dijadikan satu dalam sebuah keping IC yang disebut chip. Istilah chip digunakan untuk menunjukkan suatu lempengan persegi empat yang memuat rangkaian terpadu IC. LSI kemudian dikembangkan menjadi Very Large Scale Integration (VLSI) yang dapat menampung puluhan ribu hingga ratusan ribu IC. Selanjutnya dikembangkannya komputer mikro yang menggunakan mikroprosesor dan semikonduktor yang berbentuk chip untuk memori komputer internal sementara generasi sebelumnya menggunakan magnetic core storage.

Komputer Generasi IV: Apple II
Perusahaan Intel pada tahun 1971 memperkenalkan mikrokomputer 4 bit yang menggunakan chip prosesor dengan nama 4004 yang berisi 230 transistor dan berjalan pada 108 KHz (Kilo-Hertz) dan dapat mengeksekusi 60.000 operasi per detik. Dilanjutkan pada tahun 1972, Intel memperkenalkan mikrokomputer 8008 yang memproses 8 bit informasi pada satu waktu. Selanjutnya mikroprosesor 8080 dibuat pada tahun 1974, dan merupakan prosesor untuk tujuan umum pertama. Sebelumnya prosesor 4004 dan 8008 dirancang untuk kebutuhan aplikasi tertentu, dan prosesor 8080 memiliki kemampuan lebih cepat dan memilki set instruksi yang lebih kaya, serta memiliki kemampuan pengalamatan yang lebih besar. Pada generasi keempat ini tampilan monitor masih satu warna (green color).


Komputer Generasi IV: PDP 11
Komputer-komputer generasi keempat diantaranya adalah IBM 370, Apple I dan Apple II, PDP-11, VisiCalc, dan Altair yang menggunakan prosesor Intel 8080, dengan sistem operasi CP/M (Control Program for Microprocessor), dengan bahasa pemrograman Microsoft Basic (Beginners Allpurpose Symbolic Instruction Code). Sebagai catatan bahwa pada komputer-komputer generasi keempat ini tidak satupun yang PC-Compatible atau Macintosh-Compatible. Sehingga pada generasi ini belum ditentukan standar sebuah komputer terutama personal computer (PC).
5.    KOMPUTER GENERASI V (1980-AN-SEKARANG)

Komputer generasi kelima adalah komputer yang kita temui pada saat ini. Komputer yang dalam komponen elektriknya masih menggunakan mikrochip walaupun ukurannya dan bahan yang digunakan berbeda. Ukurannya lebih kecil membuat ukuran komputerpun lebuh sederhana.


Ciri ciri komputer generasi kelima adalah sebagai berikut :
·         Komponen elektronikanya dari miniaturisasi yang disebut LSI dan mulai memperkenalkan VLSI (Very Large Scale Integration) yang merupakan paduan dari IC dengan kapasitas rangkaian dapat mencapai 100.000 komponen tiap chip
·         Mulai dikembangkan suatu jaringan komputer lokal yang menggunakan ARCNET (Attach Research Computing Network)
·         Program dibuat dengan bahasa: BASIC, FORTRAN, COBOL, PASCAL
Sifat-sifatnya:
·         Ukurannya relatif lebih kecil
·         Sudah menerapkan Multi Programming dan Multi Processing
·         Mengenal DataBase Management System (DBMS).
Pabrik yang memproduksi; IBM, BURROGHS, HONEYWELL, INTEL
Contoh mesin; IBM (IBM S/34, IBM S/36, IBM PC/AT & XT, IBM PS/2), HONEYWELL 700, BURROGHS 600, CRAY I, CYBER, PC Aplle II, COMMODORE PC ,INTEL i386 sampai dengan intel Pentium I, II, III, IV, Dual Core, Core 2 Duo, dan Quad Core.
Komputer genarasi ini telah berkembang sangat pesat karena penggunannya yang sangat mudah (friendly user) dan serba guna apalagi di bidang industri dan teknologi informasi, peranan komputer sangatlah membantu.
6.    KOMPUTER GENERASI KEENAM
 
Rencana masa depan komputer generasi ke enam adalah komputer yang telah memiliki Artificial Intelligence (AI). Sehingga komputer di masa depan dapat memberikan respon atas keinginan manusia

1)    Ciri ciri komputer generasi kelima adalh sebagai berikut :
·         Komputer generasi ini masih dalam tahap pengembangan dan pemakainya belum banyak. Pengembangan komputer genarasi ini dipelopori oleh negara Jepang
·         Komponen elektronikanya menggunakan bentuk paling baru dari chip VLSI
·         Program dibuat dalam bahasa PROLOG (Programming Logic) dan LISP (List Processor)
·         Komputer generasi enam difokuskan kepada AI (Artificial Inteligence / Kecerdasan Buatan), yaitu sesuatu yang berhubungan dengan penggunaan komputer untuk melaksanakan tugas-tugas yang merupakan analog tingkah laku manusia.
2)    Sifat-sifatnya:
·         Dapat membantu menyusun program untuk dirinya sendiri
·         Dapat menerjemahkan dari suatu bahasa ke bahasa lain
·         Dapat membuat pertimbangan-pertimbangan logis
·         Dapat mendengar kalimat perintah yang diucapkan serta melaksanakannya
·         Dapat memilih setumpuk fakta serta menggunakan fakta yang diperlukan
·         Dapat mengolah gambar-gambar dan grafik dengan cara yang sama dengan mengolah kata, misalnya dapat melihat serta mengerti sebuah foto.
Dua tanda tanda akan munculnya inovasi komputer generasi keenam adalah komputer paralel yang berarti memungkinkan banyak CPU bekerja sama membentuk suatu jaringan yang efisien. Selin itu ditemukannya superkonduktor yang memungkinkan aliran listrik mengalir tanpa hambatan sedikitpun sehingga dapat meningkatkan kecepatan informasi yang di dapat. Lembaga ICOT (Institute for new Computer Technology) juga dibentuk untuk merealisasikan keberadaan komputer generasi kelima ini.

Sumber: http://aok-kul.blogspot.com/2011/07/evolusi-komputer-computer-evolutions.html
Read More...