Różnica między Binarnym a ASCII

Binarny vs ASCII

Kod binarny to metoda stosowana w komputerach i urządzeniach cyfrowych do reprezentowania i przesyłania tekstu, symboli lub instrukcji procesora. Ponieważ komputery i urządzenia cyfrowe wykonują swoje podstawowe operacje w oparciu o dwie wartości napięcia (wysokie lub niskie), każdy kawałek danych związanych z procesem musi zostać przekonwertowany do tej postaci. Idealną metodą wykonania tego zadania jest przedstawienie danych w systemie liczb binarnych, który zawiera tylko dwie cyfry, 1 i 0. Na przykład, przy każdym naciśnięciu klawisza na klawiaturze, powstaje ciąg jedynek i zer, który jest unikalny dla każdego znaku i wysyła go jako wynik. Proces konwersji danych na kod binarny nazywa się kodowaniem. Wiele metod kodowania jest używanych w informatyce i telekomunikacji.

ASCII, co oznacza American Standardowy kod wymiany informacji, to standardowe kodowanie znaków alfanumerycznych używanych w komputerach i powiązanych urządzeniach. ASCII został wprowadzony przez United States of America Standards Institute (USASI), obecnie znany jako American National Standards Institute.       

Więcej informacji o kodach binarnych

Najprostszym sposobem na zakodowanie danych jest przypisanie określonej wartości (głównie liczb dziesiętnych) znakowi lub symbolowi lub instrukcji, a następnie przekonwertowanie wartości (liczby dziesiętnej) na liczbę binarną, która składa się tylko z 1 i 0. Sekwencja 1 i 0 nazywa się jako ciąg binarny. Długość ciągu binarnego określa liczbę różnych znaków lub instrukcji, które można zakodować. Za pomocą tylko jednej cyfry można przedstawić tylko dwa różne znaki lub instrukcje. Za pomocą dwóch cyfr można przedstawić cztery znaki lub instrukcje. Ogólnie rzecz biorąc, z ciągiem binarnym n cyfry, 2)n różne znaki, instrukcje lub stany mogą być reprezentowane.    

Istnieje wiele metod kodowania z różnymi długościami ciągów binarnych, z których niektóre mają stałą długość, a inne zmienną długość. Kilka kodów binarnych ze stałymi ciągami bitów to ASCII, rozszerzony ASCII, UTF-2 i UTF-32. UTF-16 i UTF-8 to kody binarne o zmiennej długości. Zarówno kodowanie Huffmana, jak i kod Morse'a można również traktować jako kody binarne o zmiennej długości.

Więcej o ASCII

ASCII to schemat kodowania znaków alfanumerycznych wprowadzony w latach 60. Oryginalny ASCII wykorzystuje ciąg binarny o długości 7 cyfr, co umożliwia reprezentowanie 128 znaków. Późniejsza wersja ASCII o nazwie rozszerzony ASCII używa 8-znakowego łańcucha dwójkowego, co daje mu możliwość reprezentowania 256 różnych znaków.

ASCII obejmuje przede wszystkim dwa typy znaków, które są znaki kontrolne (reprezentowany przez 0-31 dziesiętny i 127dziesiętny) i znaki do druku (reprezentowany przez 32–126 dziesiętny). Na przykład klawisz Control usunąć otrzymuje wartość 127dziesiętny który jest reprezentowany przez 1111111. Znak za, która ma wartość 97dziesiętny,jest reprezentowany przez 1100001. ASCII może reprezentować litery w obu przypadkach, cyfry, symbole i klawisze sterujące.

Jaka jest różnica między kodem binarnym a kodem ASCII?

• Kod binarny jest ogólnym terminem stosowanym do metody kodowania znaków lub instrukcji, ale ASCII jest tylko jedną z ogólnie przyjętych konwencji kodowania znaków i był najczęściej stosowanym schematem kodowania binarnego przez ponad trzy dekady.

• Kod binarny może mieć różne długości do kodowania w zależności od liczby znaków, instrukcji lub metody kodowania, ale ASCII używa tylko 7 cyfr łańcucha binarnego o długości i 8 cyfr w przypadku rozszerzonego ASCII.