Меня затронула одна тема, с которой я ни как не могу справиться. Это деление чисел.
Меня интересует деление одного числа на другое если эти числа находятся в массивах (в каждом элементе одна цифра) или в строках. К примеру массив A{1,1,1,1,1,1}, массив B {1,1,1}. Или в тех же самых строках s1='111111', s2='111';
Расскажите алгоритм по которому можно данные числа разделить в самих массивах (строках).
(Перевод числа в переменную целочисленного типа (longint, integer) не предлагать, так как я хочу использовать длинную арифметику.)
я знаю ток как просходит деление(умножение) двоичных чисе в ЭВМ.. незнаю подойтет тибе или нет?
Посмотри у Окулова, там все хорошо написано: http://inf.1september.ru/2000/1/art/okul1.htm
Процедуры, написанные по Окулову, лежат у нас в FAQ-е ("Длинная арифметика").
Просто понимаете Окулов пишет такие, что начинающему программисту не понять (если я даже не знаю как пишутся процедуры и функции). Можете просто обычным простеньким алгоритмом объяснить мне как это работает?
Ну может быть это и так, но можете объяснить как это можно сделать?
Многострадальный раздел "Теория языка Паскаль" снова подвергается нападению.. Сергей, тебя что, интересует, как именно деление реализовано в TP? Если это вопрос про общий алгоритм - то и задавай его в разделе Алгоритмы!
М | Тема переносится в раздел Алгоритмы. Сергей, персональное задание тебе: просмотри все разделы Форума, а также делай это перед каждым созданием новой темы!! Иначе - премод.. |
Если ты хочешь делить непосредственно в той системе счисления, в которой записаны числа (типа в десятичной), то в самом первом приближении деление реализуется по алгоритму, который ты знаешь с начальной школы: деление "уголком". Для этого (если ты еще помнишь, что проходил в первом классе)) нужно уметь умножать и вычитать, а для умножения (столбиком) нужно сложение. Так что сначала тебе придется реализовать сложение, вычитание и умножение. Дальше действуй непосредственно по агоритму "уголка": бери первые разряды от делимого, делитель умножай последовательно на числа, начиная с 1 и до основания системы (в десятичном случае от 1 до 10) пока результат не превысит взятый кусок делимого. Тогда к результату приписываешь цифру, на единицу меньшую множителя. Вычитаешь из этого куска произведение цифры на делитель, потом "сносишь цифру" (приписываешь справа) из делимого и повторяешь процесс, пока цифр для сноса не останется...
Это сильно неформальное описание, нуждающееся в доработке и оптимизации, но общий принцип такой. Кстати, тут есть некоторое пересечение с параллельной темой (про перестановки). Дело в том, что деление - это обратная операция к умножению. То есть, разделить a на b - это значит найти корень уравнения b*x=a. И если в операции умножения все определено (возьми a кучек по b предметов и пересчитай), то в делении приходится подбирать ответ (в уголке - брать по 4, по 5...) И это отражается на алгоритме (перебор всех цифр). Это чисто философское замечание, не особо заморачивайся, просто подумай)).
Извините, но я что-то запутался) Не могли бы вы написать примерчик какой-нибдь?
Спасибо) Теперь какое-то представление имею!