12 #include "cln/exception.h"
16 // We observe the following timings in seconds:
17 // Time for dividing a 2*n word number by a n word number:
18 // OS: Linux 2.2, intDsize==32, OS: TRU64/4.0, intDsize==64,
19 // Machine: P-III/450MHz Machine: EV5/300MHz:
20 // n standard Newton standard Newton
21 // 10 0.000010 0.000024 0.000036 0.000058
22 // 30 0.000026 0.000080 0.00012 0.00027
23 // 100 0.00018 0.00048 0.00084 0.0016
24 // 300 0.0013 0.0028 0.0062 0.0090
25 // 1000 0.014 0.019 0.064 0.066 <-(~2200)
26 // 2000 0.058 0.058 <-(~2000) 0.26 0.20
27 // 3000 0.20 0.11 0.57 0.24
28 // 10000 2.3 0.50 6.7 1.2
29 // 30000 24.4 1.2 62.0 2.8
30 // Time for dividing a 3*n word number by a n word number:
31 // OS: Linux 2.2, intDsize==32, OS: TRU64/4.0, intDsize==64,
32 // Machine: P-III/450MHz Machine: EV5/300MHz:
33 // n standard Newton standard Newton
34 // 10 0.000013 0.000040 0.000063 0.00011
35 // 30 0.000046 0.00018 0.00024 0.00062
36 // 100 0.00035 0.0012 0.0016 0.0040
37 // 300 0.0027 0.0071 0.012 0.021
38 // 1000 0.029 0.047 0.13 0.16
39 // 2000 0.12 0.14 <-(~2200) 0.51 0.45 <-(~1600)
40 // 3000 0.40 0.22 1.1 0.52
41 // 10000 4.5 0.76 13.2 2.0
42 // 30000 42.0 2.8 123.0 6.0
43 // Time for dividing m digits by n digits:
44 // OS: Linux 2.2, intDsize==32, OS: TRU64/4.0, intDsize==64,
45 // Machine: P-III/450MHz Machine: EV5/300MHz:
46 // n Newton faster for: Newton faster for:
48 // 600 never 670<m<900 (definitly negligible)
49 // 800 never 850<m<1500
50 // 1000 never 1030<m<2000
51 // 1200 1400<m<1700 1230<m<2700
52 // 1500 1590<m<2500 1530<m<5100, 6600<m (ridge negligible)
53 // 2000 2060<m<3600 2030<m
58 // Break-even-point, should be acceptable for both architectures.
59 // When in doubt, prefer to choose the standard algorithm.
61 static inline bool cl_recip_suitable (uintL m, uintL n) // m > n
66 return (m >= n+50) && (m < 2*n-600);
71 // Use the old default values from CLN version <= 1.0.3 as a crude estimate.
72 // They came from the timings for dividing m digits by n digits on an i486/33:
73 // Dividing 2*N digits by N digits: Dividing 3*N digits by N digits:
74 // N standard Newton standard Newton
75 // 10 0.0003 0.0012 0.0006 0.0025
76 // 25 0.0013 0.0044 0.0026 0.0103
77 // 50 0.0047 0.0125 0.0092 0.030
78 // 100 0.017 0.037 0.035 0.089
79 // 250 0.108 0.146 0.215 0.362
80 // 500 0.43 0.44 <-(~550) 0.85 1.10
81 // 1000 1.72 1.32 3.44 3.21 <-(~740)
82 // 2500 11.2 4.1 23.3 7.9
83 // 5000 44.3 9.5 89.0 15.6
84 // 10000 187 20.6 362 33.1
85 // Time for dividing m digits by n digits:
86 // n = 2,3,5,10,25,50,100,250: Newton never faster.
87 // n = 400: Newton faster for m >= 440, m < 600
88 // n = 500: Newton faster for m >= 530, m < 900
89 // n = 600: Newton faster for m >= 630, m < 1250
90 // n = 700: Newton faster for m >= 730, m < 1530
91 // n = 800: Newton faster for m >= 825, m < 2600 or m >= 5300
92 // n = 900: Newton faster for m >= 925, m < 2700 or m >= 3400
93 // n = 1000: Newton faster for m >= 1020
94 // n = 1500: Newton faster for m >= 1520
95 // n = 2000: Newton faster for m >= 2020
96 // n = 2500: Newton faster for m >= 2520
97 // n = 5000: Newton faster for m >= 5020
98 static inline bool cl_recip_suitable (uintL m, uintL n) // m > n
103 return (m >= n+30) && (m < 3*n-600);
109 // Dividiert zwei Unsigned Digit sequences durcheinander.
110 // UDS_divide(a_MSDptr,a_len,a_LSDptr, b_MSDptr,b_len,b_LSDptr, &q,&r);
111 // Die UDS a = a_MSDptr/a_len/a_LSDptr (a>=0) wird durch
112 // die UDS b = b_MSDptr/b_len/b_LSDptr (b>=0) dividiert:
113 // a = q * b + r mit 0 <= r < b. Bei b=0 Error.
114 // q der Quotient, r der Rest.
115 // q = q_MSDptr/q_len/q_LSDptr, r = r_MSDptr/r_len/r_LSDptr beides
116 // Normalized Unsigned Digit sequences.
117 // Vorsicht: q_LSDptr <= r_MSDptr,
118 // Vorzeichenerweiterung von r kann q zerstören!
119 // Vorzeichenerweiterung von q ist erlaubt.
120 // a und b werden nicht modifiziert.
123 // erst a und b normalisieren: a=[a[m-1],...,a[0]], b=[b[n-1],...,b[0]]
124 // mit m>=0 und n>0 (Stellensystem der Basis beta=2^intDsize).
125 // Falls m<n, ist q:=0 und r:=a.
126 // Falls m>=n=1, Single-Precision-Division:
129 // {Hier (q[m-1]*beta^(m-1)+...+q[j]*beta^j) * b[0] + r*beta^j =
130 // = a[m-1]*beta^(m-1)+...+a[j]*beta^j und 0<=r<b[0]<beta}
131 // j:=j-1, r:=r*beta+a[j], q[j]:=floor(r/b[0]), r:=r-b[0]*q[j].
132 // Normalisiere [q[m-1],...,q[0]], liefert q.
133 // Falls m>=n>1, Multiple-Precision-Division:
134 // Es gilt a/b < beta^(m-n+1).
135 // s:=intDsize-1-(Nummer des höchsten Bits in b[n-1]), 0<=s<intDsize.
136 // Schiebe a und b um s Bits nach links und kopiere sie dabei. r:=a.
137 // r=[r[m],...,r[0]], b=[b[n-1],...,b[0]] mit b[n-1]>=beta/2.
138 // Für j=m-n,...,0: {Hier 0 <= r < b*beta^(j+1).}
140 // q* := floor((r[j+n]*beta+r[j+n-1])/b[n-1]).
141 // Bei Überlauf (q* >= beta) setze q* := beta-1.
142 // Berechne c2 := ((r[j+n]*beta+r[j+n-1]) - q* * b[n-1])*beta + r[j+n-2]
143 // und c3 := b[n-2] * q*.
144 // {Es ist 0 <= c2 < 2*beta^2, sogar 0 <= c2 < beta^2 falls kein
145 // Überlauf aufgetreten war. Ferner 0 <= c3 < beta^2.
146 // Bei Überlauf und r[j+n]*beta+r[j+n-1] - q* * b[n-1] >= beta,
147 // das heißt c2 >= beta^2, kann man die nächste Abfrage überspringen.}
148 // Solange c3 > c2, {hier 0 <= c2 < c3 < beta^2} setze
149 // q* := q* - 1, c2 := c2 + b[n-1]*beta, c3 := c3 - b[n-2].
151 // Setze r := r - b * q* * beta^j, im einzelnen:
152 // [r[n+j],...,r[j]] := [r[n+j],...,r[j]] - q* * [b[n-1],...,b[0]].
153 // also: u:=0, for i:=0 to n-1 do
154 // u := u + q* * b[i],
155 // r[j+i]:=r[j+i]-(u mod beta) (+ beta, falls Carry),
156 // u:=u div beta (+ 1, falls bei der Subtraktion Carry)
158 // {Da stets u = (q* * [b[i-1],...,b[0]] div beta^i) + 1
159 // < q* + 1 <= beta, läuft der Übertrag u nicht über.}
160 // Tritt dabei ein negativer Übertrag auf, so setze q* := q* - 1
161 // und [r[n+j],...,r[j]] := [r[n+j],...,r[j]] + [0,b[n-1],...,b[0]].
163 // Normalisiere [q[m-n],..,q[0]] und erhalte den Quotienten q,
164 // Schiebe [r[n-1],...,r[0]] um s Bits nach rechts, normalisiere und
165 // erhalte den Rest r.
166 // Dabei kann q[j] auf dem Platz von r[n+j] liegen.
167 void cl_UDS_divide (const uintD* a_MSDptr, uintC a_len, const uintD* a_LSDptr,
168 const uintD* b_MSDptr, uintC b_len, const uintD* b_LSDptr,
169 uintD* roomptr, // ab roomptr kommen a_len+1 freie Digits
171 { // a normalisieren (a_MSDptr erhöhen, a_len erniedrigen):
172 while ((a_len>0) && (mspref(a_MSDptr,0)==0)) { msshrink(a_MSDptr); a_len--; }
173 // b normalisieren (b_MSDptr erhöhen, b_len erniedrigen):
175 { if (b_len==0) { throw division_by_0_exception(); }
176 if (mspref(b_MSDptr,0)==0) { msshrink(b_MSDptr); b_len--; }
179 // jetzt m=a_len >=0 und n=b_len >0.
181 // m<n: Trivialfall, q=0, r:= Kopie von a.
182 { var uintD* r_MSDptr = roomptr;
183 var uintD* r_LSDptr = roomptr mspop a_len;
184 // Speicheraufbau: r_MSDptr/0/r_MSDptr/a_len/r_LSDptr
186 copy_loop_lsp(a_LSDptr,r_LSDptr,a_len);
187 q_->MSDptr = r_MSDptr; q_->len = 0; q_->LSDptr = r_MSDptr; // q = 0, eine NUDS
188 r_->MSDptr = r_MSDptr; r_->len = a_len; r_->LSDptr = r_LSDptr; // r = Kopie von a, eine NUDS
192 // n=1: Single-Precision-Division
193 { // beta^(m-1) <= a < beta^m ==> beta^(m-2) <= a/b < beta^m
194 var uintD* q_MSDptr = roomptr;
195 var uintD* q_LSDptr = q_MSDptr mspop a_len;
196 var uintD* r_MSDptr = q_LSDptr;
197 var uintD* r_LSDptr = r_MSDptr mspop 1;
198 // Speicheraufbau: q_MSDptr/a_len/q_LSDptr r_MSDptr/1/r_LSDptr
200 {var uintD rest = divucopy_loop_msp(mspref(b_MSDptr,0),a_MSDptr,q_MSDptr,a_len); // Division durch b[0]
203 { mspref(r_MSDptr,0) = rest; r_len=1; } // Rest als r ablegen
205 { r_MSDptr = r_LSDptr; r_len=0; } // Rest auf 0 normalisieren
206 if (mspref(q_MSDptr,0)==0)
207 { msshrink(q_MSDptr); a_len--; } // q normalisieren
208 q_->MSDptr = q_MSDptr; q_->len = a_len; q_->LSDptr = q_LSDptr; // q ablegen
209 r_->MSDptr = r_MSDptr; r_->len = r_len; r_->LSDptr = r_LSDptr; // r ablegen
213 // n>1: Multiple-Precision-Division
214 { // beta^(m-1) <= a < beta^m, beta^(n-1) <= b < beta^n ==>
215 // beta^(m-n-1) <= a/b < beta^(m-n+1).
219 { var uintD msd = mspref(b_MSDptr,0); // b[n-1]
222 while ((sintD)msd >= 0) { msd = msd<<1; s++; }
223 #else // ein wenig effizienter, Abfrage auf s=0 vorwegnehmen
225 { s = 0; goto shift_ok; }
227 { integerlengthD(msd, s = intDsize - ); goto shift; }
230 // 0 <= s < intDsize.
231 // Kopiere b und schiebe es dabei um s Bits nach links:
234 { var uintD* new_b_MSDptr;
235 var uintD* new_b_LSDptr;
236 num_stack_alloc(b_len,new_b_MSDptr=,new_b_LSDptr=);
237 shiftleftcopy_loop_lsp(b_LSDptr,new_b_LSDptr,b_len,s);
238 b_MSDptr = new_b_MSDptr; b_LSDptr = new_b_LSDptr;
241 // Wieder b = b_MSDptr/b_len/b_LSDptr.
242 // Kopiere a und schiebe es dabei um s Bits nach links, erhalte r:
243 {var uintD* r_MSDptr = roomptr;
244 var uintD* r_LSDptr = roomptr mspop (a_len+1);
245 // Speicheraufbau: r_MSDptr/ a_len+1 /r_LSDptr
247 // später: q_MSDptr/a_len-b_len+1/r_MSDptr/b_len/r_LSDptr
250 { copy_loop_lsp(a_LSDptr,r_LSDptr,a_len); mspref(r_MSDptr,0) = 0; }
252 { mspref(r_MSDptr,0) = shiftleftcopy_loop_lsp(a_LSDptr,r_LSDptr,a_len,s); }
253 // Nun r = r_MSDptr/a_len+1/r_LSDptr.
254 var uintC j = a_len-b_len; // m-n
255 var uintD* q_MSDptr = r_MSDptr;
256 var uintC q_len = j+1; // q wird m-n+1 Digits haben
257 if (cl_recip_suitable(a_len,b_len))
258 { // Bestimme Kehrwert c von b.
261 num_stack_alloc(j+3,c_MSDptr=,c_LSDptr=);
262 cl_UDS_recip(b_MSDptr,b_len,c_MSDptr,j+1);
263 // c hat j+3 Digits, | beta^(m+2)/b - c | < beta.
264 // Mit a' = floor(a/beta^n) multiplizieren, liefert d':
266 UDS_UDS_mul_UDS(j+1,r_MSDptr mspop (j+1), j+3,c_MSDptr mspop (j+3),
268 // d' has 2*j+4 digits, d := floor(d'/beta^(j+2)) has j+2 digits.
269 // | beta^(m+2)/b - c | < beta ==> (since a < beta^(m+1))
270 // | beta^(m+2)*a/b - a*c | < beta^(m+2),
271 // 0 <= a - a'*beta^n < beta^n ==> (since c <= 2*beta^(j+2))
272 // 0 <= a*c - a'*c*beta^n < 2*beta^(m+2) ==>
273 // -beta^(m+2) < beta^(m+2)*a/b - a'*c*beta^n < 3*beta^(m+2) ==>
274 // -1 < a/b - a'*c*beta^(-j-2) < 3 ==>
275 // -1 < a/b - d'*beta^(-j-2) < 3,
276 // -1 < d'*beta^(-j-2) - d <= 0 ==>
277 // -2 < a/b - d < 3 ==>
278 // -2 <= q - d < 3 ==> |q-d| <= 2.
279 var uintD* d_LSDptr = d_MSDptr mspop (j+2);
280 // Zur Bestimmung des Restes wieder mit b multiplizieren:
283 UDS_UDS_mul_UDS(j+2,d_LSDptr, b_len,b_LSDptr, p_MSDptr=,,p_LSDptr=);
284 // d ist um höchstens 2 zu groß, muß also evtl. zweimal um 1
285 // decrementieren, bis das Produkt <= a wird.
286 if ((mspref(p_MSDptr,0) > 0) || (compare_loop_msp(p_MSDptr mspop 1,r_MSDptr,a_len+1) > 0))
287 { dec_loop_lsp(d_LSDptr,j+2);
288 if (subfrom_loop_lsp(b_LSDptr,p_LSDptr,b_len))
289 dec_loop_lsp(p_LSDptr lspop b_len,j+2);
290 if ((mspref(p_MSDptr,0) > 0) || (compare_loop_msp(p_MSDptr mspop 1,r_MSDptr,a_len+1) > 0))
291 { dec_loop_lsp(d_LSDptr,j+2);
292 if (subfrom_loop_lsp(b_LSDptr,p_LSDptr,b_len))
293 dec_loop_lsp(p_LSDptr lspop b_len,j+2);
294 if ((mspref(p_MSDptr,0) > 0) || (compare_loop_msp(p_MSDptr mspop 1,r_MSDptr,a_len+1) > 0))
295 throw runtime_exception();
298 subfrom_loop_lsp(p_LSDptr,r_LSDptr,a_len+1);
299 if (test_loop_msp(r_MSDptr,j)) throw runtime_exception();
300 r_MSDptr = r_LSDptr lspop b_len; // = r_MSDptr mspop (j+1);
301 // d ist um höchstens 2 zu klein, muß also evtl. zweimal um 1
302 // incrementieren, bis der Rest < b wird.
303 if ((lspref(r_MSDptr,0) > 0) || (compare_loop_msp(r_MSDptr,b_MSDptr,b_len) >= 0))
304 { inc_loop_lsp(d_LSDptr,j+2);
305 if (subfrom_loop_lsp(b_LSDptr,r_LSDptr,b_len))
306 lspref(r_LSDptr,b_len) -= 1;
307 if ((lspref(r_MSDptr,0) > 0) || (compare_loop_msp(r_MSDptr,b_MSDptr,b_len) >= 0))
308 { inc_loop_lsp(d_LSDptr,j+2);
309 if (subfrom_loop_lsp(b_LSDptr,r_LSDptr,b_len))
310 lspref(r_LSDptr,b_len) -= 1;
311 if ((lspref(r_MSDptr,0) > 0) || (compare_loop_msp(r_MSDptr,b_MSDptr,b_len) >= 0))
312 throw runtime_exception();
314 // r ist fertig, q := d.
315 if (mspref(d_MSDptr,0) > 0) throw runtime_exception();
316 q_len = j+1; copy_loop_msp(d_MSDptr mspop 1,q_MSDptr,q_len);
319 { var uintD* r_ptr = r_LSDptr lspop j; // Pointer oberhalb von r[j]
321 var uintD b_msd = mspref(b_MSDptr,0); // b[n-1]
322 var uintD b_2msd = mspref(b_MSDptr,1); // b[n-2]
324 var uintDD b_msdd = highlowDD(b_msd,b_2msd); // b[n-1]*beta+b[n-2]
326 // Divisions-Schleife: (wird m-n+1 mal durchlaufen)
327 // j = Herabzähler, b_MSDptr/b_len/b_LSDptr = [b[n-1],...,b[0]], b_len=n,
328 // r_MSDptr = Pointer auf r[n+j] = Pointer auf q[j],
329 // r_ptr = Pointer oberhalb von r[j].
330 do { var uintD q_stern;
332 if (mspref(r_MSDptr,0) < b_msd) // r[j+n] < b[n-1] ?
333 { // Dividiere r[j+n]*beta+r[j+n-1] durch b[n-1], ohne Überlauf:
335 divuD(highlowDD(mspref(r_MSDptr,0),mspref(r_MSDptr,1)),b_msd, q_stern=,c1=);
337 divuD(mspref(r_MSDptr,0),mspref(r_MSDptr,1),b_msd, q_stern=,c1=);
341 { // Überlauf, also r[j+n]*beta+r[j+n-1] >= beta*b[n-1]
342 q_stern = bitm(intDsize)-1; // q* = beta-1
343 // Teste ob r[j+n]*beta+r[j+n-1] - (beta-1)*b[n-1] >= beta
344 // <==> r[j+n]*beta+r[j+n-1] + b[n-1] >= beta*b[n-1]+beta
345 // <==> b[n-1] < floor((r[j+n]*beta+r[j+n-1]+b[n-1])/beta) {<= beta !} ist.
346 // Wenn ja, direkt zur Subtraktionschleife.
347 // (Andernfalls ist r[j+n]*beta+r[j+n-1] - (beta-1)*b[n-1] < beta
348 // <==> floor((r[j+n]*beta+r[j+n-1]+b[n-1])/beta) = b[n-1] ).
349 if ((mspref(r_MSDptr,0) > b_msd) || ((c1 = mspref(r_MSDptr,1)+b_msd) < b_msd))
350 // r[j+n] >= b[n-1]+1 oder
351 // r[j+n] = b[n-1] und Addition r[j+n-1]+b[n-1] gibt Carry ?
352 { goto subtract; } // ja -> direkt in die Subtraktion
355 // c1 = (r[j+n]*beta+r[j+n-1]) - q* * b[n-1] (>=0, <beta).
357 { var uintDD c2 = highlowDD(c1,mspref(r_MSDptr,2)); // c1*beta+r[j+n-2]
358 var uintDD c3 = muluD(b_2msd,q_stern); // b[n-2] * q*
359 // Solange c2 < c3, c2 erhöhen, c3 erniedrigen:
360 // Rechne dabei mit c3-c2:
361 // solange >0, um b[n-1]*beta+b[n-2] erniedrigen.
362 // Dies kann wegen b[n-1]*beta+b[n-2] >= beta^2/2
363 // höchstens zwei mal auftreten.
365 { q_stern = q_stern-1; // q* := q* - 1
367 { q_stern = q_stern-1; } // q* := q* - 1
370 // Wie oben, nur mit zweigeteilten c2=[c2hi|c2lo] und c3=[c3hi|c3lo]:
372 { var uintD c2lo = mspref(r_MSDptr,2); // c2hi*beta+c2lo = c1*beta+r[j+n-2]
375 muluD(b_2msd,q_stern, c3hi=,c3lo=); // c3hi*beta+c3lo = b[n-2] * q*
376 if ((c3hi > c2hi) || ((c3hi == c2hi) && (c3lo > c2lo)))
377 { q_stern = q_stern-1; // q* := q* - 1
378 c3hi -= c2hi; if (c3lo < c2lo) { c3hi--; }; c3lo -= c2lo; // c3 := c3-c2
379 if ((c3hi > b_msd) || ((c3hi == b_msd) && (c3lo > b_2msd)))
380 { q_stern = q_stern-1; } // q* := q* - 1
386 { // Subtraktionsschleife: r := r - b * q* * beta^j
387 var uintD carry = mulusub_loop_lsp(q_stern,b_LSDptr,r_ptr,b_len);
388 // Noch r_ptr[-b_len-1] -= carry, d.h. r_MSDptr[0] -= carry
389 // durchführen und danach r_MSDptr[0] vergessen:
390 if (carry > mspref(r_MSDptr,0))
391 // Subtraktion ergab Übertrag
392 { q_stern = q_stern-1; // q* := q* - 1
393 addto_loop_lsp(b_LSDptr,r_ptr,b_len); // Additionsschleife
394 // r[n+j] samt Carry kann vergessen werden...
396 // Berechnung von q* ist fertig.
397 msprefnext(r_MSDptr) = q_stern; // als q[j] ablegen
398 r_ptr = r_ptr mspop 1;
402 // Nun ist q = [q[m-n],..,q[0]] = q_MSDptr/q_len/r_MSDptr
403 // und r = [r[n-1],...,r[0]] = r_MSDptr/b_len/r_LSDptr.
404 // q normalisieren und ablegen:
405 if (mspref(q_MSDptr,0)==0)
406 { msshrink(q_MSDptr); q_len--; }
407 q_->MSDptr = q_MSDptr; q_->len = q_len; q_->LSDptr = r_MSDptr;
408 // Schiebe [r[n-1],...,r[0]] um s Bits nach rechts:
410 { shiftright_loop_msp(r_MSDptr,b_len,s); }
411 // r normalisieren und ablegen:
412 while ((b_len>0) && (mspref(r_MSDptr,0)==0))
413 { msshrink(r_MSDptr); b_len--; }
414 r_->MSDptr = r_MSDptr; r_->len = b_len; r_->LSDptr = r_LSDptr;
418 // Bit complexity (N = a_len): O(M(N)).