Arsitektur
komputer mempelajari atribut-atribut sistem komputer yang terkait dengan
seorang programmer dan memiliki dampak langsung pada eksekusi logis sebuah
program, contoh: set instruksi, jumlah bit yang digunakan untuk merepresentasikan
bermacam-macam jenis data (misal bilangan, karakter), aritmetika yang
digunakan, teknik pengalamatan, mekanisme I/O. Dalam hal ini, implementasi
perencanaan dari masing–masing bagian akan lebih difokuskan terutama, mengenai
bagaimana CPU akan bekerja, dan mengenai cara pengaksesan data dan alamat dari
dan ke memori cache, RAM, ROM, cakram keras, dll). Beberapa contoh dari
arsitektur komputer ini adalah arsitektur von Neumann, CISC, RISC, blue Gene, dan arsitektur Harvard.
Arsitektur von Neumann
Arsitektur von Neumann adalah sebuah arsitektur komputer yang
dikembangkan oleh seorang matematikawan dan fisikawan John von Neumann. Arsitektur
ini terdiri atas sebuah processing unit yang terdiri dari arithmetic logic unit
(ALU) dan processor registers; sebuah control unit yang terdiri dari
instruction register dan program counter; sebuah memoi yang menyimpan data dan
instruksi; penyimpanan eksternal; dan mekanisme input dan output.
1.
Processing Unit
Processing Unit atau yang lebih dikenal dengan Central
Processing Unit (CPU) berfungsi untuk memproses arahan, melaksanakan pengiraan
dan mengurus laluan informasi menerusi sistem komputer. Unit atau piranti
pemrosesan juga akan berkomunikasi dengan piranti input, output, dan storan
bagi melaksanakan arahan-arahan berkaitan.
a.
Arithmetic Logic Unit
(ALU)
ALU berfungsi untuk melakukan operasi hitungan aritmatika dan
logika. Contoh operasi aritmatika adalah operasi penjumlahan dan pengurangan,
sedangkan contoh operasi logika adalah logika AND dan OR. tugas utama dari ALU adalah
melakukan semua perhitungan aritmatika atau matematika yang terjadi sesuai
dengan instruksi program. ALU melakukan operasi aritmatika yang lainnya.
Seperti pengurangan, pengurangan, dan pembagian dilakukan dengan dasar
penjumlahan. ALU melakukan operasi arithmatika dengan dasar pertambahan, sedang
operasi arithmatika yang lainnya, seperti pengurangan, perkalian, dan pembagian
dilakukan dengan dasar penjumlahan. sehingga sirkuit elektronik di ALU yang
digunakan untuk melaksanakan operasi arithmatika ini disebut adder. Tugas lain
dari ALU adalah melakukan keputusan dari operasi logika sesuai dengan instruksi
program. Operasi logika (logical operation) meliputi perbandingan dua buah
elemen logika dengan menggunakan operator logika.
b.
Control Unit
Unit kontrol mampu mengatur jalannya program. Komponen ini
sudah pasti terdapat dalam semua CPU. CPU bertugas mengontrol komputer sehingga
terjadi sinkronisasi kerja antarkomponen dalam menjalankan fungsi-fungsi
operasinya. termasuk dalam tanggung jawab unit kontrol adalah mengambil
intruksi-intruksi dari memori utama dan menentukan jenis instruksi tersebut.
Bila ada instruksi untuk perhitungan aritmatika atau perbandingan logika, maka
unit kendali akan mengirim instruksi tersebut ke ALU. Hasil dari pengolahan
data dibawa oleh unit kendali ke memori utama lagi untuk disimpan, dan pada
saatnya akan disajikan ke alat output. Dengan demikian tugas dari unit kendali
ini adalah:
·
Mengatur dan mengendalikan
alat-alat masukan (input) dan keluaran (output).
·
Mengambil
instruksi-instruksi dari memori utama.
·
Mengambil data dari memori
utama (jika diperlukan) untuk diproses.
·
Mengirim instruksi ke ALU
bila ada perhitungan aritmatika atau perbandingan logika serta mengawasi kerja
dari ALU.
·
Menyimpan hasil proses ke
memori utama.
2.
Register
Register merupakan alat penyimpanan kecil yang mempunyai kecepatan akses cukup tinggi,
yang digunakan untuk menyimpan data dan
instruksi yang sedang diproses,
sementara data dan instruksi lainnya yang menunggugiliran untukdiproses
masihdisimpan yang menunggugiliran untukdiproses masihdisimpan di dalam memori
utama. Setiap register dapat menyimpan satu bilangan hingga mencapai jumlah
maksimum tertentu tergantung pada ukurannya.
3.
Memori
Memori menyimpan berbagai bentuk informasi sebagai angka
biner. Informasi yang belum berbentuk biner akan dipecahkan (encoded) dengan
sejumlah instruksi yang mengubahnya menjadi sebuah angka atau urutan
angka-angka. Sebagai contoh: Huruf F disimpan sebagai angka desimal 70 (atau
angka biner ) menggunakan salah satu metode pemecahan. Instruksi yang lebih
kompleks bisa digunakan untuk menyimpan gambar, suara, video, dan berbagai
macam informasi. Informasi yang bisa disimpan dalam satu sel dinamakan sebuah
byte.
4.
Input Device
Input Device merupakan suatu unit masukan yang berfungsi
sebagai media untuk memasukkan data dari
luar ke dalam suatu memori dan prosesor untuk diolah guna menghasilkan
informasi yang diperlukan. Data yang dimasukkan ke dalam sistem komputer dapat
berbentuk signal input dan maintenance input.
5.
Output Device
Output device merupakan perangkat komputer yang digunakan
untuk menghasilkan keluaran. Contohnya;printer, speaker, plotter, monitor, dll.
Proses kerjanya ialah diawali memasukkan data dari perangkat input, lalu data
tersebut diolah sedemikian rupa oleh CPU sesuai yang kita inginkan dan data
yang telah diolah tadi disimpan dalam memori komputer atau disk.
Arsitektur
Harvard
Istilah
Harvard diambil dari sebuah komputer berbasis relay Harvard Mark I, yang
menyimpan instruksi dan data pada sebuah konter elektromekanik. Arsitektur
Harvard merupakan arsitektur komputer yang secara fisik memisahkan penyimpanan
dan jalur sinyal untuk instruksi-instruksi dan data. Karena dua perbedaan aliran data dan alamat, maka
tidak diperlukan multipleksing alamat dan bus data. Arsitektur ini tidak
hanya didukung dengan bus paralel untuk alamat dan data, tetapi juga
menyediakan organisasi internal yang
berbeda sedemikian rupa sehingga instruksi dapat diambil dan dikodekan
ketika berbagai data sedang diambil dan dioperasikan. Lebih lanjut lagi, bus
data bisa saja memiliki ukuran yang berbeda
dari bus alamat. Hal ini memungkinkan pengoptimalan bus data dan bus
alamat dalam pengeksekusian instruksi yang cepat. Sebagai contoh,
mikrokontroler Intel keluarga MCS-51 menggunakan arsitektur Harvard karena ada
perbedaan kapasitas memori untuk program dan data, dan bus terpisah (internal)
untuk alamat dan data. Begitu juga
dengan keluarga PIC dari Microchip yang menggunakan arsitektur Havard.
Arsitektur
RISC
RISC singkatan dari Reduced Instruction Set Computer.
Merupakan bagian dari arsitektur mikroprosesor, berbentuk kecil dan berfungsi
untuk menset istruksi dalam komunikasi di antara arsitektur yang lainnya.
Reduced Instruction Set Computing (RISC) atau “Komputasi set instruksi yang
disederhanakan” pertama kali digagas oleh John Cocke, peneliti dari IBM di
Yorktown, New York pada tahun 1974 saat ia membuktikan bahwa sekitar 20%
instruksi pada sebuah prosesor ternyata menangani sekitar 80% dari keseluruhan
kerjanya. Komputer pertama yang menggunakan konsep RISC ini adalah IBM PC/XT
pada era 1980-an. Istilah RISC sendiri pertama kali dipopulerkan oleh David
Patterson,pengajar pada University of California di Berkeley.
RISC, yang jika diterjemahkan berarti “Komputasi Kumpulan
Instruksi yang Disederhanakan”, merupakan sebuah arsitektur komputer atau
arsitektur komputasi modern dengan instruksi-instruksi dan jenis eksekusi yang
paling sederhana. Arsitektur ini digunakan pada komputer dengan kinerja tinggi,
seperti komputer vektor.
Selain digunakan dalam komputer vektor, desain ini juga
diimplementasikan pada prosesor komputer lain, seperti pada beberapa
mikroprosesor Intel 960, Titanium (IA64) dari Intel Corporation, Alpha AXP dari
DEC, R4x00 dari MIPS Corporation, PowerPC dan Arsitektur POWER dari
International Business Machine. Selain itu, RISC juga umum dipakai pada Advanced
RISC Machine (ARM) dan StrongARM (termasuk di antaranya adalah Intel XScale),
SPARC dan UltraSPARC dari Sun Microsystems, serta PA-RISC dari Hewlett-Packard.
Arsitektur
CISC
Complex instruction-set computing atau Complex Instruction-Set
Computer (CISC) “Kumpulan instruksi komputasi kompleks”) adalah sebuah
arsitektur dari set instruksi di mana setiap instruksi akan menjalankan
beberapa operasi tingkat rendah, seperti pengambilan dari memori, operasi
aritmetika, dan penyimpanan ke dalam memori, semuanya sekaligus hanya di dalam
sebuah instruksi. Karakteristik CISC dapat dikatakan bertolak-belakang dengan
RISC.
Sebelum proses RISC didesain untuk pertama kalinya, banyak
arsitek komputer mencoba menjembatani celah semantik”, yaitu bagaimana cara
untuk membuat set-set instruksi untuk mempermudah pemrograman level tinggi
dengan menyediakan instruksi “level tinggi” seperti pemanggilan prosedur,
proses pengulangan dan mode-mode pengalamatan kompleks sehingga struktur data
dan akses array dapat dikombinasikan dengan sebuah instruksi. Karakteristik
CISC yang “sarat informasi” ini memberikan keuntungan di mana ukuran
program-program yang dihasilkan akan menjadi relatif lebih kecil, dan
penggunaan memori akan semakin berkurang. Karena CISC inilah biaya pembuatan
komputer pada saat itu (tahun 1960) menjadi jauh lebih hemat.
Memang setelah itu banyak desain yang memberikan hasil yang
lebih baik dengan biaya yang lebih rendah, dan juga mengakibatkan pemrograman
level tinggi menjadi lebih sederhana, tetapi pada kenyataannya tidaklah selalu
demikian. Contohnya, arsitektur kompleks yang didesain dengan kurang baik (yang
menggunakan kode-kode mikro untuk mengakses fungsi-fungsi hardware), akan
berada pada situasi di mana akan lebih mudah untuk meningkatkan performansi
dengan tidak menggunakan instruksi yang kompleks (seperti instruksi pemanggilan
prosedur), tetapi dengan menggunakan urutan instruksi yang sederhana.
Istilah RISC dan CISC saat ini kurang dikenal, setelah melihat
perkembangan lebih lanjut dari desain dan implementasi baik CISC dan CISC.
Implementasi CISC paralel untuk pertama kalinya, seperti 486 dari Intel, AMD,
Cyrix, dan IBM telah mendukung setiap instruksi yang digunakan oleh
prosesor-prosesor sebelumnya, meskipun efisiensi tertingginya hanya saat
digunakan pada subset x86 yang sederhana (mirip dengan set instruksi RISC,
tetapi tanpa batasan penyimpanan/pengambilan data dari RISC). Prosesor-prosesor
modern x86 juga telah menyandikan dan membagi lebih banyak lagi
instruksi-instruksi kompleks menjadi beberapa “operasi-mikro” internal yang
lebih kecil sehingga dapat instruksi-instruksi tersebut dapat dilakukan secara
paralel, sehingga mencapai performansi tinggi pada subset instruksi yang lebih
besar.
Arsitektur
Blue Gene
Blue Gene adalah sebuah arsitektur komputer yang dirancang
untuk menciptakan beberapa superkomputer generasi berikut, yang dirancang untuk
mencapai kecepatan operasi petaflop (1 peta = 10 pangkat 15), dan pada 2005
telah mencapai kecepatan lebih dari 100 teraflop (1 tera = 10 pangkat 12). Blue
Gene merupakan proyek antara Departemen Energi Amerika Serikat (yang membiayai
projek ini), industri (terutama IBM), dan kalangan akademi. Ada lima projek
Blue Gene dalam pengembangan saat ini, di antaranya adalah Blue Gene/L, Blue
Gene/C, dan Blue Gene/P.
Komputer pertama dalam seri Blue Gene. Blue Gene/L
dikembangkan melalui sebuah “partnership” dengan Lawrence Livermore National
Laboratory menghabiskan biaya AS$100 juta dan direncanakan dapat mencapai
kecepatan ratusan TFLOPS, dengan kecepatan puncak teoritis 360 TFLOPS. Ini
hampir sepuluh kali lebih cepat dari Earth Simulator, superkomputer tercepat di
dunia sebelum Blue Gene. Pada Juni 2004, dua prototipe Blue Gene/L masuk dalam
peringkat 500 besar superkomputer berada dalam posisi ke-4 dan ke-8.
Pada 29 September 2004 IBM mengumumkan bahwa sebuah prototipe
Blue Gene/L di IBM Rochester (Minnesota) telah menyusul Earth Simulator NEC
sebagai komputer tercepat di dunia, dengan kecepatan 36,01 TFLOPS, mengalahkan
Earth Simulator yang memiliki kecepatan 35,86 TFLOPS. Mesin ini kemudian mencapai
kecepatan 70,72.
Pada 24 Maret 2005, Departemen Energi AS mengumumkan bahwa
Blue Gene/L memecahkan rekor komputer tercepat mencapai 135,5 TFLOPS. Hal ini
dimungkinkan karena menambah jumlah rak menjadi 32 dengan setiap rak berisi
1.024 node komputasi. Ini masih merupakan setengah dari konfigurasi final yang
direncanakan mencapai 65.536 node.
Pada 27 Oktober, 2005, Lawrence Livermore National Laboratory
dan IBM mengumumkan bahwa Blue Gene/L sekali lagi telah menciptakan rekor
dengan mengalahkan rekornya sendiri setelah mencapai kecepatan 280.6 TFLOPS.
Referensi:
- - https://id.wikipedia.org/wiki/Arsitektur_komputer
- - https://en.wikipedia.org/wiki/Von_Neumann_architecture
- - https://imanher.wordpress.com/2011/12/18/arsitektur-komputer-von-neumann/
- - https://en.wikipedia.org/wiki/Harvard_architecture
- - https://fajarhidayat513.wordpress.com/2016/09/29/evolusi-arsitektur-komputer/