]> git.llucax.com Git - software/dgc/cdgc.git/blob - rt/gc/cdgc/gc.d
Use a function to round up sizes to PAGESIZE
[software/dgc/cdgc.git] / rt / gc / cdgc / gc.d
1 /**
2  * This module contains the garbage collector implementation.
3  *
4  * Copyright: Copyright (C) 2001-2007 Digital Mars, www.digitalmars.com.
5  *            All rights reserved.
6  * License:
7  *  This software is provided 'as-is', without any express or implied
8  *  warranty. In no event will the authors be held liable for any damages
9  *  arising from the use of this software.
10  *
11  *  Permission is granted to anyone to use this software for any purpose,
12  *  including commercial applications, and to alter it and redistribute it
13  *  freely, in both source and binary form, subject to the following
14  *  restrictions:
15  *
16  *  o  The origin of this software must not be misrepresented; you must not
17  *     claim that you wrote the original software. If you use this software
18  *     in a product, an acknowledgment in the product documentation would be
19  *     appreciated but is not required.
20  *  o  Altered source versions must be plainly marked as such, and must not
21  *     be misrepresented as being the original software.
22  *  o  This notice may not be removed or altered from any source
23  *     distribution.
24  * Authors:   Walter Bright, David Friedman, Sean Kelly
25  */
26
27 module rt.gc.cdgc.gc;
28
29 // D Programming Language Garbage Collector implementation
30
31 /************** Debugging ***************************/
32
33 //debug = COLLECT_PRINTF;       // turn on printf's
34 //debug = PTRCHECK;             // more pointer checking
35 //debug = PTRCHECK2;            // thorough but slow pointer checking
36
37 /*************** Configuration *********************/
38
39 version = STACKGROWSDOWN;       // growing the stack means subtracting from the stack pointer
40                                 // (use for Intel X86 CPUs)
41                                 // else growing the stack means adding to the stack pointer
42
43 /***************************************************/
44
45 import rt.gc.cdgc.bits: GCBits;
46 import rt.gc.cdgc.stats: GCStats, Stats;
47 import dynarray = rt.gc.cdgc.dynarray;
48 import os = rt.gc.cdgc.os;
49 import opts = rt.gc.cdgc.opts;
50
51 import cstdlib = tango.stdc.stdlib;
52 import cstring = tango.stdc.string;
53 import cstdio = tango.stdc.stdio;
54 debug(COLLECT_PRINTF) alias cstdio.printf printf;
55
56 /*
57  * This is a small optimization that proved it's usefulness. For small chunks
58  * or memory memset() seems to be slower (probably because of the call) that
59  * simply doing a simple loop to set the memory.
60  */
61 void memset(void* dst, int c, size_t n)
62 {
63     // This number (32) has been determined empirically
64     if (n > 32) {
65         cstring.memset(dst, c, n);
66         return;
67     }
68     auto p = cast(ubyte*)(dst);
69     while (n-- > 0)
70         *p++ = c;
71 }
72
73 version (GNU)
74 {
75     // BUG: The following import will likely not work, since the gcc
76     //      subdirectory is elsewhere.  Instead, perhaps the functions
77     //      could be declared directly or some other resolution could
78     //      be found.
79     static import gcc.builtins; // for __builtin_unwind_int
80 }
81
82 struct BlkInfo
83 {
84     void*  base;
85     size_t size;
86     uint   attr;
87 }
88
89 package enum BlkAttr : uint
90 {
91     FINALIZE = 0b0000_0001,
92     NO_SCAN  = 0b0000_0010,
93     NO_MOVE  = 0b0000_0100,
94     ALL_BITS = 0b1111_1111
95 }
96
97 package bool has_pointermap(uint attrs)
98 {
99     return !opts.options.conservative && !(attrs & BlkAttr.NO_SCAN);
100 }
101
102 private size_t round_up(size_t n, size_t to)
103 {
104     return (n + to - 1) / to;
105 }
106
107 private
108 {
109     alias void delegate(Object) DEvent;
110     alias void delegate( void*, void* ) scanFn;
111     enum { OPFAIL = ~cast(size_t)0 }
112
113     extern (C)
114     {
115         version (DigitalMars) version(OSX)
116             oid _d_osx_image_init();
117
118         void* rt_stackBottom();
119         void* rt_stackTop();
120         void rt_finalize( void* p, bool det = true );
121         void rt_attachDisposeEvent(Object h, DEvent e);
122         bool rt_detachDisposeEvent(Object h, DEvent e);
123         void rt_scanStaticData( scanFn scan );
124
125         void thread_init();
126         bool thread_needLock();
127         void thread_suspendAll();
128         void thread_resumeAll();
129         void thread_scanAll( scanFn fn, void* curStackTop = null );
130
131         void onOutOfMemoryError();
132     }
133 }
134
135
136 enum
137 {
138     PAGESIZE =    4096,
139     POOLSIZE =   (4096*256),
140 }
141
142
143 enum
144 {
145     B_16,
146     B_32,
147     B_64,
148     B_128,
149     B_256,
150     B_512,
151     B_1024,
152     B_2048,
153     B_PAGE,             // start of large alloc
154     B_PAGEPLUS,         // continuation of large alloc
155     B_FREE,             // free page
156     B_MAX
157 }
158
159
160 alias ubyte Bins;
161
162
163 struct List
164 {
165     List* next;
166     Pool* pool;
167 }
168
169
170 struct Range
171 {
172     void *pbot;
173     void *ptop;
174     int opCmp(in Range other)
175     {
176         if (pbot < other.pbot)
177             return -1;
178         else
179         return cast(int)(pbot > other.pbot);
180     }
181 }
182
183
184 const uint binsize[B_MAX] = [ 16,32,64,128,256,512,1024,2048,4096 ];
185 const uint notbinsize[B_MAX] = [ ~(16u-1),~(32u-1),~(64u-1),~(128u-1),~(256u-1),
186                                 ~(512u-1),~(1024u-1),~(2048u-1),~(4096u-1) ];
187
188
189 /* ============================ GC =============================== */
190
191
192 class GCLock {} // just a dummy so we can get a global lock
193
194
195 struct GC
196 {
197     // global lock
198     ClassInfo lock;
199
200     void* p_cache;
201     size_t size_cache;
202
203     // !=0 means don't scan stack
204     uint no_stack;
205     bool any_changes;
206     void* stack_bottom;
207     uint inited;
208     /// Turn off collections if > 0
209     int disabled;
210
211     // PID of the fork()ed process doing the mark() (0 if is not running)
212     int mark_proc_pid;
213
214     /// min(pool.baseAddr)
215     byte *min_addr;
216     /// max(pool.topAddr)
217     byte *max_addr;
218
219     /// Free list for each size
220     List*[B_MAX] free_list;
221
222     dynarray.DynArray!(void*) roots;
223     dynarray.DynArray!(Range) ranges;
224     dynarray.DynArray!(Pool*) pools;
225
226     Stats stats;
227 }
228
229 // call locked if necessary
230 private T locked(T, alias Code)()
231 {
232     if (thread_needLock())
233         synchronized (gc.lock) return Code();
234     else
235        return Code();
236 }
237
238 private GC* gc;
239
240 bool Invariant()
241 {
242     assert (gc !is null);
243     if (gc.inited) {
244         for (size_t i = 0; i < gc.pools.length; i++) {
245             Pool* pool = gc.pools[i];
246             pool.Invariant();
247             if (i == 0)
248                 assert(gc.min_addr == pool.baseAddr);
249             if (i + 1 < gc.pools.length)
250                 assert(*pool < *gc.pools[i + 1]);
251             else if (i + 1 == gc.pools.length)
252                 assert(gc.max_addr == pool.topAddr);
253         }
254
255         gc.roots.Invariant();
256         gc.ranges.Invariant();
257
258         for (size_t i = 0; i < gc.ranges.length; i++) {
259             assert(gc.ranges[i].pbot);
260             assert(gc.ranges[i].ptop);
261             assert(gc.ranges[i].pbot <= gc.ranges[i].ptop);
262         }
263
264         for (size_t i = 0; i < B_PAGE; i++) {
265             for (List *list = gc.free_list[i]; list; list = list.next) {
266                 auto pool = list.pool;
267                 assert (pool !is null);
268                 auto p = cast(byte*) list;
269                 assert (p >= pool.baseAddr);
270                 assert (p < pool.topAddr);
271                 assert (pool.freebits.test((p - pool.baseAddr) / 16));
272             }
273         }
274     }
275     return true;
276 }
277
278
279 /**
280  * Find Pool that pointer is in.
281  * Return null if not in a Pool.
282  * Assume pools is sorted.
283  */
284 Pool* findPool(void* p)
285 {
286     if (p < gc.min_addr || p >= gc.max_addr)
287         return null;
288     if (gc.pools.length == 0)
289         return null;
290     if (gc.pools.length == 1)
291         return gc.pools[0];
292     /// The pooltable[] is sorted by address, so do a binary search
293     size_t low = 0;
294     size_t high = gc.pools.length - 1;
295     while (low <= high) {
296         size_t mid = (low + high) / 2;
297         auto pool = gc.pools[mid];
298         if (p < pool.baseAddr)
299             high = mid - 1;
300         else if (p >= pool.topAddr)
301             low = mid + 1;
302         else
303             return pool;
304     }
305     // Not found
306     return null;
307 }
308
309
310 /**
311  * Determine the base address of the block containing p.  If p is not a gc
312  * allocated pointer, return null.
313  */
314 BlkInfo getInfo(void* p)
315 {
316     assert (p !is null);
317     Pool* pool = findPool(p);
318     if (pool is null)
319         return BlkInfo.init;
320     BlkInfo info;
321     info.base = pool.findBase(p);
322     if (info.base is null)
323         return BlkInfo.init;
324     info.size = pool.findSize(info.base);
325     size_t bit_i = (info.base - pool.baseAddr) / 16;
326     info.attr = getAttr(pool, bit_i);
327     if (has_pointermap(info.attr)) {
328         info.size -= size_t.sizeof; // PointerMap bitmask
329         // Points to the PointerMap bitmask pointer, not user data
330         if (p >= (info.base + info.size)) {
331             return BlkInfo.init;
332         }
333     }
334     if (opts.options.sentinel) {
335         info.base = sentinel_add(info.base);
336         // points to sentinel data, not user data
337         if (p < info.base || p >= sentinel_post(info.base))
338             return BlkInfo.init;
339         info.size -= SENTINEL_EXTRA;
340     }
341     return info;
342 }
343
344
345 /**
346  * Compute bin for size.
347  */
348 Bins findBin(size_t size)
349 {
350     Bins bin;
351     if (size <= 256)
352     {
353         if (size <= 64)
354         {
355             if (size <= 16)
356                 bin = B_16;
357             else if (size <= 32)
358                 bin = B_32;
359             else
360                 bin = B_64;
361         }
362         else
363         {
364             if (size <= 128)
365                 bin = B_128;
366             else
367                 bin = B_256;
368         }
369     }
370     else
371     {
372         if (size <= 1024)
373         {
374             if (size <= 512)
375                 bin = B_512;
376             else
377                 bin = B_1024;
378         }
379         else
380         {
381             if (size <= 2048)
382                 bin = B_2048;
383             else
384                 bin = B_PAGE;
385         }
386     }
387     return bin;
388 }
389
390
391 /**
392  * Allocate a new pool of at least size bytes.
393  * Sort it into pools.
394  * Mark all memory in the pool as B_FREE.
395  * Return the actual number of bytes reserved or 0 on error.
396  */
397 size_t reserve(size_t size)
398 {
399     assert(size != 0);
400     size_t npages = round_up(size, PAGESIZE);
401     Pool*  pool = newPool(npages);
402
403     if (!pool)
404         return 0;
405     return pool.npages * PAGESIZE;
406 }
407
408
409 /**
410  * Minimizes physical memory usage by returning free pools to the OS.
411  */
412 void minimize()
413 {
414     // Disabled if a parallel collection is in progress because the shared mark
415     // bits of the freed pool might be used by the mark process
416     if (gc.mark_proc_pid != 0)
417         return;
418
419     size_t n;
420     size_t pn;
421     Pool* pool;
422
423     for (n = 0; n < gc.pools.length; n++)
424     {
425         pool = gc.pools[n];
426         for (pn = 0; pn < pool.npages; pn++)
427         {
428             if (cast(Bins)pool.pagetable[pn] != B_FREE)
429                 break;
430         }
431         if (pn < pool.npages)
432             continue;
433         pool.Dtor();
434         cstdlib.free(pool);
435         gc.pools.remove_at(n);
436         n--;
437     }
438     gc.min_addr = gc.pools[0].baseAddr;
439     gc.max_addr = gc.pools[gc.pools.length - 1].topAddr;
440 }
441
442
443 /**
444  * Allocate a chunk of memory that is larger than a page.
445  * Return null if out of memory.
446  */
447 void* bigAlloc(size_t size, out Pool* pool)
448 {
449     size_t npages;
450     size_t n;
451     size_t pn;
452     size_t freedpages;
453     void*  p;
454     int    state;
455
456     npages = round_up(size, PAGESIZE);
457
458     for (state = 0; ; )
459     {
460         // This code could use some refinement when repeatedly
461         // allocating very large arrays.
462
463         for (n = 0; n < gc.pools.length; n++)
464         {
465             pool = gc.pools[n];
466             pn = pool.allocPages(npages);
467             if (pn != OPFAIL)
468                 goto L1;
469         }
470
471         // Failed
472         switch (state)
473         {
474         case 0:
475             if (gc.disabled)
476             {
477                 state = 1;
478                 continue;
479             }
480             // Try collecting
481             freedpages = fullcollectshell();
482             if (freedpages >= gc.pools.length * ((POOLSIZE / PAGESIZE) / 4))
483             {
484                 state = 1;
485                 continue;
486             }
487             // Release empty pools to prevent bloat
488             minimize();
489             // Allocate new pool
490             pool = newPool(npages);
491             if (!pool)
492             {
493                 state = 2;
494                 continue;
495             }
496             pn = pool.allocPages(npages);
497             assert(pn != OPFAIL);
498             goto L1;
499         case 1:
500             // Release empty pools to prevent bloat
501             minimize();
502             // Allocate new pool
503             pool = newPool(npages);
504             if (!pool)
505                 goto Lnomemory;
506             pn = pool.allocPages(npages);
507             assert(pn != OPFAIL);
508             goto L1;
509         case 2:
510             goto Lnomemory;
511         default:
512             assert(false);
513         }
514     }
515
516   L1:
517     size_t bit_i = pn * (PAGESIZE / 16);
518     pool.freebits.clear(bit_i);
519     pool.pagetable[pn] = B_PAGE;
520     if (npages > 1)
521         memset(&pool.pagetable[pn + 1], B_PAGEPLUS, npages - 1);
522     p = pool.baseAddr + pn * PAGESIZE;
523     memset(cast(char *)p + size, 0, npages * PAGESIZE - size);
524     if (opts.options.mem_stomp)
525         memset(p, 0xF1, size);
526     return p;
527
528   Lnomemory:
529     return null; // let mallocNoSync handle the error
530 }
531
532
533 /**
534  * Allocate a new pool with at least npages in it.
535  * Sort it into pools.
536  * Return null if failed.
537  */
538 Pool *newPool(size_t npages)
539 {
540     // Minimum of POOLSIZE
541     if (npages < POOLSIZE/PAGESIZE)
542         npages = POOLSIZE/PAGESIZE;
543     else if (npages > POOLSIZE/PAGESIZE)
544     {
545         // Give us 150% of requested size, so there's room to extend
546         auto n = npages + (npages >> 1);
547         if (n < size_t.max/PAGESIZE)
548             npages = n;
549     }
550
551     // Allocate successively larger pools up to 8 megs
552     if (gc.pools.length)
553     {
554         size_t n = gc.pools.length;
555         if (n > 8)
556             n = 8;                  // cap pool size at 8 megs
557         n *= (POOLSIZE / PAGESIZE);
558         if (npages < n)
559             npages = n;
560     }
561
562     auto pool = cast(Pool*) cstdlib.calloc(1, Pool.sizeof);
563     if (pool is null)
564         return null;
565     pool.initialize(npages);
566     if (!pool.baseAddr)
567     {
568         pool.Dtor();
569         return null;
570     }
571
572     auto inserted_pool = *gc.pools.insert_sorted!("*a < *b")(pool);
573     if (inserted_pool is null) {
574         pool.Dtor();
575         return null;
576     }
577     assert (inserted_pool is pool);
578     gc.min_addr = gc.pools[0].baseAddr;
579     gc.max_addr = gc.pools[gc.pools.length - 1].topAddr;
580     return pool;
581 }
582
583
584 /**
585  * Allocate a page of bin's.
586  * Returns:
587  *  0       failed
588  */
589 int allocPage(Bins bin)
590 {
591     Pool*  pool;
592     size_t pn;
593
594     for (size_t n = 0; n < gc.pools.length; n++)
595     {
596         pool = gc.pools[n];
597         pn = pool.allocPages(1);
598         if (pn != OPFAIL)
599             goto L1;
600     }
601     return 0;               // failed
602
603   L1:
604     pool.pagetable[pn] = cast(ubyte)bin;
605
606     // Convert page to free list
607     size_t size = binsize[bin];
608     auto list_head = &gc.free_list[bin];
609
610     byte* p = pool.baseAddr + pn * PAGESIZE;
611     byte*  ptop = p + PAGESIZE;
612     size_t bit_i = pn * (PAGESIZE / 16);
613     pool.freebits.set_group(bit_i, PAGESIZE / 16);
614     for (; p < ptop; p += size)
615     {
616         List* l = cast(List *) p;
617         l.next = *list_head;
618         l.pool = pool;
619         *list_head = l;
620     }
621     return 1;
622 }
623
624
625 /**
626  * Search a range of memory values and mark any pointers into the GC pool using
627  * type information (bitmask of pointer locations).
628  */
629 void mark_range(void *pbot, void *ptop, size_t* pm_bitmask)
630 {
631     // TODO: make our own assert because assert uses the GC
632     assert (pbot <= ptop);
633
634     const BITS_PER_WORD = size_t.sizeof * 8;
635
636     void **p1 = cast(void **)pbot;
637     void **p2 = cast(void **)ptop;
638     size_t pcache = 0;
639     bool changes = false;
640
641     size_t type_size = pm_bitmask[0];
642     size_t* pm_bits = pm_bitmask + 1;
643     bool has_type_info = type_size != 1 || pm_bits[0] != 1 || pm_bits[1] != 0;
644
645     //printf("marking range: %p -> %p\n", pbot, ptop);
646     for (; p1 + type_size <= p2; p1 += type_size) {
647         for (size_t n = 0; n < type_size; n++) {
648             // scan bit set for this word
649             if (has_type_info &&
650                     !(pm_bits[n / BITS_PER_WORD] & (1 << (n % BITS_PER_WORD))))
651                 continue;
652
653             void* p = *(p1 + n);
654
655             if (p < gc.min_addr || p >= gc.max_addr)
656                 continue;
657
658             if ((cast(size_t)p & ~(PAGESIZE-1)) == pcache)
659                 continue;
660
661             Pool* pool = findPool(p);
662             if (pool)
663             {
664                 size_t offset = cast(size_t)(p - pool.baseAddr);
665                 size_t bit_i = void;
666                 size_t pn = offset / PAGESIZE;
667                 Bins   bin = cast(Bins)pool.pagetable[pn];
668
669                 // Cache B_PAGE, B_PAGEPLUS and B_FREE lookups
670                 if (bin >= B_PAGE)
671                     pcache = cast(size_t)p & ~(PAGESIZE-1);
672
673                 // Adjust bit to be at start of allocated memory block
674                 if (bin <= B_PAGE)
675                     bit_i = (offset & notbinsize[bin]) / 16;
676                 else if (bin == B_PAGEPLUS)
677                 {
678                     do
679                     {
680                         --pn;
681                     }
682                     while (cast(Bins)pool.pagetable[pn] == B_PAGEPLUS);
683                     bit_i = pn * (PAGESIZE / 16);
684                 }
685                 else // Don't mark bits in B_FREE pages
686                     continue;
687
688                 if (!pool.mark.test(bit_i))
689                 {
690                     pool.mark.set(bit_i);
691                     if (!pool.noscan.test(bit_i))
692                     {
693                         pool.scan.set(bit_i);
694                         changes = true;
695                     }
696                 }
697             }
698         }
699     }
700     if (changes)
701         gc.any_changes = true;
702 }
703
704 /**
705  * Return number of full pages free'd.
706  */
707 size_t fullcollectshell()
708 {
709     gc.stats.collection_started();
710     scope (exit)
711         gc.stats.collection_finished();
712
713     // The purpose of the 'shell' is to ensure all the registers
714     // get put on the stack so they'll be scanned
715     void *sp;
716     size_t result;
717     version (GNU)
718     {
719         gcc.builtins.__builtin_unwind_init();
720         sp = & sp;
721     }
722     else version(LDC)
723     {
724         version(X86)
725         {
726             uint eax,ecx,edx,ebx,ebp,esi,edi;
727             asm
728             {
729                 mov eax[EBP], EAX      ;
730                 mov ecx[EBP], ECX      ;
731                 mov edx[EBP], EDX      ;
732                 mov ebx[EBP], EBX      ;
733                 mov ebp[EBP], EBP      ;
734                 mov esi[EBP], ESI      ;
735                 mov edi[EBP], EDI      ;
736                 mov  sp[EBP], ESP      ;
737             }
738         }
739         else version (X86_64)
740         {
741             ulong rax,rbx,rcx,rdx,rbp,rsi,rdi,r8,r9,r10,r11,r12,r13,r14,r15;
742             asm
743             {
744                 movq rax[RBP], RAX      ;
745                 movq rbx[RBP], RBX      ;
746                 movq rcx[RBP], RCX      ;
747                 movq rdx[RBP], RDX      ;
748                 movq rbp[RBP], RBP      ;
749                 movq rsi[RBP], RSI      ;
750                 movq rdi[RBP], RDI      ;
751                 movq r8 [RBP], R8       ;
752                 movq r9 [RBP], R9       ;
753                 movq r10[RBP], R10      ;
754                 movq r11[RBP], R11      ;
755                 movq r12[RBP], R12      ;
756                 movq r13[RBP], R13      ;
757                 movq r14[RBP], R14      ;
758                 movq r15[RBP], R15      ;
759                 movq  sp[RBP], RSP      ;
760             }
761         }
762         else
763         {
764             static assert( false, "Architecture not supported." );
765         }
766     }
767     else
768     {
769     asm
770     {
771         pushad              ;
772         mov sp[EBP],ESP     ;
773     }
774     }
775     result = fullcollect(sp);
776     version (GNU)
777     {
778         // nothing to do
779     }
780     else version(LDC)
781     {
782         // nothing to do
783     }
784     else
785     {
786     asm
787     {
788         popad               ;
789     }
790     }
791     return result;
792 }
793
794
795 /**
796  *
797  */
798 size_t fullcollect(void *stackTop)
799 {
800     debug(COLLECT_PRINTF) printf("Gcx.fullcollect()\n");
801
802     // If eager allocation is used, we need to check first if there is a mark
803     // process running. If there isn't, we start a new one (see the next code
804     // block). If there is, we check if it's still running or already finished.
805     // If it's still running, we tell the caller process no memory has been
806     // recovered (it will allocated more to fulfill the current request).  If
807     // the mark process is done, we lunch the sweep phase and hope enough
808     // memory is freed (if that not the case, the caller will allocate more
809     // memory and the next time it's exhausted it will run a new collection).
810     if (opts.options.eager_alloc) {
811         if (gc.mark_proc_pid != 0) { // there is a mark process in progress
812             os.WRes r = os.wait_pid(gc.mark_proc_pid, false); // don't block
813             assert (r != os.WRes.ERROR);
814             switch (r) {
815             case os.WRes.DONE:
816                 debug(COLLECT_PRINTF) printf("\t\tmark proc DONE\n");
817                 gc.mark_proc_pid = 0;
818                 return sweep();
819             case os.WRes.RUNNING:
820                 debug(COLLECT_PRINTF) printf("\t\tmark proc RUNNING\n");
821                 return 0;
822             case os.WRes.ERROR:
823                 debug(COLLECT_PRINTF) printf("\t\tmark proc ERROR\n");
824                 disable_fork(); // Try to keep going without forking
825                 break;
826             }
827         }
828     }
829
830     // We always need to stop the world to make threads save the CPU registers
831     // in the stack and prepare themselves for thread_scanAll()
832     thread_suspendAll();
833     gc.stats.world_stopped();
834
835     // If forking is enabled, we fork() and start a new mark phase in the
836     // child. The parent process will tell the caller that no memory could be
837     // recycled if eager allocation is used, allowing the mutator to keep going
838     // almost instantly (at the expense of more memory consumption because
839     // a new allocation will be triggered to fulfill the current request). If
840     // no eager allocation is used, the parent will wait for the mark phase to
841     // finish before returning control to the mutator, but other threads are
842     // restarted and may run in parallel with the mark phase (unless they
843     // allocate or use the GC themselves, in which case the global GC lock will
844     // stop them).
845     if (opts.options.fork) {
846         cstdio.fflush(null); // avoid duplicated FILE* output
847         os.pid_t child_pid = os.fork();
848         assert (child_pid != -1); // don't accept errors in non-release mode
849         switch (child_pid) {
850         case -1: // if fork() fails, fall-back to stop-the-world
851             disable_fork();
852             break;
853         case 0: // child process (i.e. the collectors mark phase)
854             mark(stackTop);
855             cstdlib.exit(0);
856             break; // bogus, will never reach here
857         default: // parent process (i.e. the mutator)
858             // start the world again and wait for the mark phase to finish
859             thread_resumeAll();
860             gc.stats.world_started();
861             if (opts.options.eager_alloc) {
862                 gc.mark_proc_pid = child_pid;
863                 return 0;
864             }
865             os.WRes r = os.wait_pid(child_pid); // block until it finishes
866             assert (r == os.WRes.DONE);
867             debug(COLLECT_PRINTF) printf("\t\tmark proc DONE (block)\n");
868             if (r == os.WRes.DONE)
869                 return sweep();
870             debug(COLLECT_PRINTF) printf("\tmark() proc ERROR\n");
871             // If there was some error, try to keep going without forking
872             disable_fork();
873             // Re-suspend the threads to do the marking in this process
874             thread_suspendAll();
875             gc.stats.world_stopped();
876         }
877
878     }
879
880     // If we reach here, we are using the standard stop-the-world collection,
881     // either because fork was disabled in the first place, or because it was
882     // disabled because of some error.
883     mark(stackTop);
884     thread_resumeAll();
885     gc.stats.world_started();
886
887     return sweep();
888 }
889
890
891 /**
892  *
893  */
894 void mark(void *stackTop)
895 {
896     debug(COLLECT_PRINTF) printf("\tmark()\n");
897
898     gc.any_changes = false;
899
900     for (size_t n = 0; n < gc.pools.length; n++)
901     {
902         Pool* pool = gc.pools[n];
903         pool.mark.copy(&pool.freebits);
904         pool.scan.zero();
905     }
906
907     /// Marks a range of memory in conservative mode.
908     void mark_conservative_range(void* pbot, void* ptop)
909     {
910         mark_range(pbot, ptop, PointerMap.init.bits.ptr);
911     }
912
913     rt_scanStaticData(&mark_conservative_range);
914
915     if (!gc.no_stack)
916     {
917         // Scan stacks and registers for each paused thread
918         thread_scanAll(&mark_conservative_range, stackTop);
919     }
920
921     // Scan roots
922     debug(COLLECT_PRINTF) printf("scan roots[]\n");
923     mark_conservative_range(gc.roots.ptr, gc.roots.ptr + gc.roots.length);
924
925     // Scan ranges
926     debug(COLLECT_PRINTF) printf("scan ranges[]\n");
927     for (size_t n = 0; n < gc.ranges.length; n++)
928     {
929         debug(COLLECT_PRINTF) printf("\t%x .. %x\n", gc.ranges[n].pbot, gc.ranges[n].ptop);
930         mark_conservative_range(gc.ranges[n].pbot, gc.ranges[n].ptop);
931     }
932
933     debug(COLLECT_PRINTF) printf("\tscan heap\n");
934     while (gc.any_changes)
935     {
936         gc.any_changes = false;
937         for (size_t n = 0; n < gc.pools.length; n++)
938         {
939             uint *bbase;
940             uint *b;
941             uint *btop;
942
943             Pool* pool = gc.pools[n];
944
945             bbase = pool.scan.base();
946             btop = bbase + pool.scan.nwords;
947             for (b = bbase; b < btop;)
948             {
949                 Bins   bin;
950                 size_t pn;
951                 size_t u;
952                 size_t bitm;
953                 byte*  o;
954
955                 bitm = *b;
956                 if (!bitm)
957                 {
958                     b++;
959                     continue;
960                 }
961                 *b = 0;
962
963                 o = pool.baseAddr + (b - bbase) * 32 * 16;
964                 if (!(bitm & 0xFFFF))
965                 {
966                     bitm >>= 16;
967                     o += 16 * 16;
968                 }
969                 for (; bitm; o += 16, bitm >>= 1)
970                 {
971                     if (!(bitm & 1))
972                         continue;
973
974                     pn = cast(size_t)(o - pool.baseAddr) / PAGESIZE;
975                     bin = cast(Bins)pool.pagetable[pn];
976                     if (bin < B_PAGE) {
977                         if (opts.options.conservative)
978                             mark_conservative_range(o, o + binsize[bin]);
979                         else {
980                             auto end_of_blk = cast(size_t**)(o +
981                                     binsize[bin] - size_t.sizeof);
982                             size_t* pm_bitmask = *end_of_blk;
983                             mark_range(o, end_of_blk, pm_bitmask);
984                         }
985                     }
986                     else if (bin == B_PAGE || bin == B_PAGEPLUS)
987                     {
988                         if (bin == B_PAGEPLUS)
989                         {
990                             while (pool.pagetable[pn - 1] != B_PAGE)
991                                 pn--;
992                         }
993                         u = 1;
994                         while (pn + u < pool.npages &&
995                                 pool.pagetable[pn + u] == B_PAGEPLUS)
996                             u++;
997
998                         size_t blk_size = u * PAGESIZE;
999                         if (opts.options.conservative)
1000                             mark_conservative_range(o, o + blk_size);
1001                         else {
1002                             auto end_of_blk = cast(size_t**)(o + blk_size -
1003                                     size_t.sizeof);
1004                             size_t* pm_bitmask = *end_of_blk;
1005                             mark_range(o, end_of_blk, pm_bitmask);
1006                         }
1007                     }
1008                 }
1009             }
1010         }
1011     }
1012 }
1013
1014
1015 /**
1016  *
1017  */
1018 size_t sweep()
1019 {
1020     // Free up everything not marked
1021     debug(COLLECT_PRINTF) printf("\tsweep\n");
1022     gc.p_cache = null;
1023     gc.size_cache = 0;
1024     size_t freedpages = 0;
1025     size_t freed = 0;
1026     for (size_t n = 0; n < gc.pools.length; n++)
1027     {
1028         Pool* pool = gc.pools[n];
1029         pool.clear_cache();
1030         uint*  bbase = pool.mark.base();
1031         size_t pn;
1032         for (pn = 0; pn < pool.npages; pn++, bbase += PAGESIZE / (32 * 16))
1033         {
1034             Bins bin = cast(Bins)pool.pagetable[pn];
1035
1036             if (bin < B_PAGE)
1037             {
1038                 auto size = binsize[bin];
1039                 byte* p = pool.baseAddr + pn * PAGESIZE;
1040                 byte* ptop = p + PAGESIZE;
1041                 size_t bit_i = pn * (PAGESIZE/16);
1042                 size_t bit_stride = size / 16;
1043
1044 version(none) // BUG: doesn't work because freebits() must also be cleared
1045 {
1046                 // If free'd entire page
1047                 if (bbase[0] == 0 && bbase[1] == 0 && bbase[2] == 0 &&
1048                         bbase[3] == 0 && bbase[4] == 0 && bbase[5] == 0 &&
1049                         bbase[6] == 0 && bbase[7] == 0)
1050                 {
1051                     for (; p < ptop; p += size, bit_i += bit_stride)
1052                     {
1053                         if (pool.finals.testClear(bit_i)) {
1054                             if (opts.options.sentinel)
1055                                 rt_finalize(sentinel_add(p), false/*gc.no_stack > 0*/);
1056                             else
1057                                 rt_finalize(p, false/*gc.no_stack > 0*/);
1058                         }
1059                         clrAttr(pool, bit_i, BlkAttr.ALL_BITS);
1060
1061                         if (opts.options.mem_stomp)
1062                             memset(p, 0xF3, size);
1063                     }
1064                     pool.pagetable[pn] = B_FREE;
1065                     freed += PAGESIZE;
1066                     continue;
1067                 }
1068 }
1069                 for (; p < ptop; p += size, bit_i += bit_stride)
1070                 {
1071                     if (!pool.mark.test(bit_i))
1072                     {
1073                         if (opts.options.sentinel)
1074                             sentinel_Invariant(sentinel_add(p));
1075
1076                         pool.freebits.set(bit_i);
1077                         if (pool.finals.testClear(bit_i)) {
1078                             if (opts.options.sentinel)
1079                                 rt_finalize(sentinel_add(p), false/*gc.no_stack > 0*/);
1080                             else
1081                                 rt_finalize(p, false/*gc.no_stack > 0*/);
1082                         }
1083                         clrAttr(pool, bit_i, BlkAttr.ALL_BITS);
1084
1085                         if (opts.options.mem_stomp)
1086                             memset(p, 0xF3, size);
1087
1088                         freed += size;
1089                     }
1090                 }
1091             }
1092             else if (bin == B_PAGE)
1093             {
1094                 size_t bit_stride = PAGESIZE / 16;
1095                 size_t bit_i = pn * bit_stride;
1096                 if (!pool.mark.test(bit_i))
1097                 {
1098                     byte *p = pool.baseAddr + pn * PAGESIZE;
1099                     if (opts.options.sentinel)
1100                         sentinel_Invariant(sentinel_add(p));
1101                     if (pool.finals.testClear(bit_i)) {
1102                         if (opts.options.sentinel)
1103                             rt_finalize(sentinel_add(p), false/*gc.no_stack > 0*/);
1104                         else
1105                             rt_finalize(p, false/*gc.no_stack > 0*/);
1106                     }
1107                     clrAttr(pool, bit_i, BlkAttr.ALL_BITS);
1108
1109                     debug(COLLECT_PRINTF) printf("\tcollecting big %p\n", p);
1110                     pool.pagetable[pn] = B_FREE;
1111                     pool.freebits.set_group(bit_i, PAGESIZE / 16);
1112                     freedpages++;
1113                     if (opts.options.mem_stomp)
1114                         memset(p, 0xF3, PAGESIZE);
1115                     while (pn + 1 < pool.npages && pool.pagetable[pn + 1] == B_PAGEPLUS)
1116                     {
1117                         pn++;
1118                         pool.pagetable[pn] = B_FREE;
1119                         bit_i += bit_stride;
1120                         pool.freebits.set_group(bit_i, PAGESIZE / 16);
1121                         freedpages++;
1122
1123                         if (opts.options.mem_stomp)
1124                         {
1125                             p += PAGESIZE;
1126                             memset(p, 0xF3, PAGESIZE);
1127                         }
1128                     }
1129                 }
1130             }
1131         }
1132     }
1133
1134     // Zero buckets
1135     gc.free_list[] = null;
1136
1137     // Free complete pages, rebuild free list
1138     debug(COLLECT_PRINTF) printf("\tfree complete pages\n");
1139     size_t recoveredpages = 0;
1140     for (size_t n = 0; n < gc.pools.length; n++)
1141     {
1142         Pool* pool = gc.pools[n];
1143         for (size_t pn = 0; pn < pool.npages; pn++)
1144         {
1145             Bins   bin = cast(Bins)pool.pagetable[pn];
1146             size_t bit_i;
1147             size_t u;
1148
1149             if (bin < B_PAGE)
1150             {
1151                 size_t size = binsize[bin];
1152                 size_t bit_stride = size / 16;
1153                 size_t bit_base = pn * (PAGESIZE / 16);
1154                 size_t bit_top = bit_base + (PAGESIZE / 16);
1155                 byte*  p;
1156
1157                 bit_i = bit_base;
1158                 for (; bit_i < bit_top; bit_i += bit_stride)
1159                 {
1160                     if (!pool.freebits.test(bit_i))
1161                         goto Lnotfree;
1162                 }
1163                 pool.pagetable[pn] = B_FREE;
1164                 pool.freebits.set_group(bit_base, PAGESIZE / 16);
1165                 recoveredpages++;
1166                 continue;
1167
1168              Lnotfree:
1169                 p = pool.baseAddr + pn * PAGESIZE;
1170                 for (u = 0; u < PAGESIZE; u += size)
1171                 {
1172                     bit_i = bit_base + u / 16;
1173                     if (pool.freebits.test(bit_i))
1174                     {
1175                         assert ((p+u) >= pool.baseAddr);
1176                         assert ((p+u) < pool.topAddr);
1177                         List* list = cast(List*) (p + u);
1178                         // avoid unnecesary writes (it really saves time)
1179                         if (list.next != gc.free_list[bin])
1180                             list.next = gc.free_list[bin];
1181                         if (list.pool != pool)
1182                             list.pool = pool;
1183                         gc.free_list[bin] = list;
1184                     }
1185                 }
1186             }
1187         }
1188     }
1189
1190     debug(COLLECT_PRINTF) printf("recovered pages = %d\n", recoveredpages);
1191     debug(COLLECT_PRINTF) printf("\tfree'd %u bytes, %u pages from %u pools\n", freed, freedpages, gc.pools.length);
1192
1193     return freedpages + recoveredpages;
1194 }
1195
1196
1197 /**
1198  *
1199  */
1200 uint getAttr(Pool* pool, size_t bit_i)
1201 in
1202 {
1203     assert( pool );
1204 }
1205 body
1206 {
1207     uint attrs;
1208     if (pool.finals.test(bit_i))
1209         attrs |= BlkAttr.FINALIZE;
1210     if (pool.noscan.test(bit_i))
1211         attrs |= BlkAttr.NO_SCAN;
1212 //        if (pool.nomove.test(bit_i))
1213 //            attrs |= BlkAttr.NO_MOVE;
1214     return attrs;
1215 }
1216
1217
1218 /**
1219  *
1220  */
1221 void setAttr(Pool* pool, size_t bit_i, uint mask)
1222 in
1223 {
1224     assert( pool );
1225 }
1226 body
1227 {
1228     if (mask & BlkAttr.FINALIZE)
1229     {
1230         pool.finals.set(bit_i);
1231     }
1232     if (mask & BlkAttr.NO_SCAN)
1233     {
1234         pool.noscan.set(bit_i);
1235     }
1236 //        if (mask & BlkAttr.NO_MOVE)
1237 //        {
1238 //            if (!pool.nomove.nbits)
1239 //                pool.nomove.alloc(pool.mark.nbits);
1240 //            pool.nomove.set(bit_i);
1241 //        }
1242 }
1243
1244
1245 /**
1246  *
1247  */
1248 void clrAttr(Pool* pool, size_t bit_i, uint mask)
1249 in
1250 {
1251     assert( pool );
1252 }
1253 body
1254 {
1255     if (mask & BlkAttr.FINALIZE)
1256         pool.finals.clear(bit_i);
1257     if (mask & BlkAttr.NO_SCAN)
1258         pool.noscan.clear(bit_i);
1259 //        if (mask & BlkAttr.NO_MOVE && pool.nomove.nbits)
1260 //            pool.nomove.clear(bit_i);
1261 }
1262
1263
1264 void disable_fork()
1265 {
1266     // we have to disable both options, as eager_alloc assumes fork is enabled
1267     opts.options.fork = false;
1268     opts.options.eager_alloc = false;
1269 }
1270
1271
1272 void initialize()
1273 {
1274     int dummy;
1275     gc.stack_bottom = cast(char*)&dummy;
1276     opts.parse(cstdlib.getenv("D_GC_OPTS"));
1277     // If we are going to fork, make sure we have the needed OS support
1278     if (opts.options.fork)
1279         opts.options.fork = os.HAVE_SHARED && os.HAVE_FORK;
1280     // Eager allocation is only possible when forking
1281     if (!opts.options.fork)
1282         opts.options.eager_alloc = false;
1283     gc.lock = GCLock.classinfo;
1284     gc.inited = 1;
1285     setStackBottom(rt_stackBottom());
1286     gc.stats = Stats(gc);
1287     if (opts.options.prealloc_npools) {
1288         size_t pages = round_up(opts.options.prealloc_psize, PAGESIZE);
1289         for (size_t i = 0; i < opts.options.prealloc_npools; ++i)
1290             newPool(pages);
1291     }
1292 }
1293
1294
1295 //
1296 //
1297 //
1298 private void *malloc(size_t size, uint attrs, size_t* pm_bitmask)
1299 {
1300     assert(size != 0);
1301
1302     gc.stats.malloc_started(size, attrs, pm_bitmask);
1303     scope (exit)
1304         gc.stats.malloc_finished(p);
1305
1306     void *p = null;
1307     Bins bin;
1308
1309     if (opts.options.sentinel)
1310         size += SENTINEL_EXTRA;
1311
1312     bool has_pm = has_pointermap(attrs);
1313     if (has_pm)
1314         size += size_t.sizeof;
1315
1316     // Compute size bin
1317     // Cache previous binsize lookup - Dave Fladebo.
1318     static size_t lastsize = -1;
1319     static Bins lastbin;
1320     if (size == lastsize)
1321         bin = lastbin;
1322     else
1323     {
1324         bin = findBin(size);
1325         lastsize = size;
1326         lastbin = bin;
1327     }
1328
1329     Pool* pool = void;
1330     size_t bit_i = void;
1331     size_t capacity = void; // to figure out where to store the bitmask
1332     if (bin < B_PAGE)
1333     {
1334         p = gc.free_list[bin];
1335         if (p is null)
1336         {
1337             if (!allocPage(bin) && !gc.disabled)   // try to find a new page
1338             {
1339                 if (!thread_needLock())
1340                 {
1341                     /* Then we haven't locked it yet. Be sure
1342                      * and gc.lock for a collection, since a finalizer
1343                      * may start a new thread.
1344                      */
1345                     synchronized (gc.lock)
1346                     {
1347                         fullcollectshell();
1348                     }
1349                 }
1350                 else if (!fullcollectshell())       // collect to find a new page
1351                 {
1352                     //newPool(1);
1353                 }
1354             }
1355             if (!gc.free_list[bin] && !allocPage(bin))
1356             {
1357                 newPool(1);         // allocate new pool to find a new page
1358                 // TODO: hint allocPage() to use the pool we just created
1359                 int result = allocPage(bin);
1360                 if (!result)
1361                     onOutOfMemoryError();
1362             }
1363             p = gc.free_list[bin];
1364         }
1365         capacity = binsize[bin];
1366
1367         // Return next item from free list
1368         List* list = cast(List*) p;
1369         assert ((cast(byte*)list) >= list.pool.baseAddr);
1370         assert ((cast(byte*)list) < list.pool.topAddr);
1371         gc.free_list[bin] = list.next;
1372         pool = list.pool;
1373         bit_i = (p - pool.baseAddr) / 16;
1374         assert (pool.freebits.test(bit_i));
1375         pool.freebits.clear(bit_i);
1376         if (!(attrs & BlkAttr.NO_SCAN))
1377             memset(p + size, 0, capacity - size);
1378         if (opts.options.mem_stomp)
1379             memset(p, 0xF0, size);
1380     }
1381     else
1382     {
1383         p = bigAlloc(size, pool);
1384         if (!p)
1385             onOutOfMemoryError();
1386         assert (pool !is null);
1387         size_t npages = round_up(size, PAGESIZE);
1388         capacity = npages * PAGESIZE;
1389         bit_i = (p - pool.baseAddr) / 16;
1390     }
1391
1392     // Store the bit mask AFTER SENTINEL_POST
1393     // TODO: store it BEFORE, so the bitmask is protected too
1394     if (has_pm) {
1395         auto end_of_blk = cast(size_t**)(p + capacity - size_t.sizeof);
1396         *end_of_blk = pm_bitmask;
1397         size -= size_t.sizeof;
1398     }
1399
1400     if (opts.options.sentinel) {
1401         size -= SENTINEL_EXTRA;
1402         p = sentinel_add(p);
1403         sentinel_init(p, size);
1404     }
1405
1406     if (attrs) {
1407         setAttr(pool, bit_i, attrs);
1408         assert (bin >= B_PAGE || !pool.freebits.test(bit_i));
1409     }
1410
1411     return p;
1412 }
1413
1414
1415 //
1416 //
1417 //
1418 private void *calloc(size_t size, uint attrs, size_t* pm_bitmask)
1419 {
1420     assert(size != 0);
1421
1422     void *p = malloc(size, attrs, pm_bitmask);
1423     memset(p, 0, size);
1424     return p;
1425 }
1426
1427
1428 //
1429 //
1430 //
1431 private void *realloc(void *p, size_t size, uint attrs,
1432         size_t* pm_bitmask)
1433 {
1434     if (!size)
1435     {
1436         if (p)
1437         {
1438             free(p);
1439             p = null;
1440         }
1441     }
1442     else if (!p)
1443     {
1444         p = malloc(size, attrs, pm_bitmask);
1445     }
1446     else
1447     {
1448         Pool* pool = findPool(p);
1449         if (pool is null)
1450             return null;
1451
1452         // Set or retrieve attributes as appropriate
1453         auto bit_i = cast(size_t)(p - pool.baseAddr) / 16;
1454         if (attrs) {
1455             clrAttr(pool, bit_i, BlkAttr.ALL_BITS);
1456             setAttr(pool, bit_i, attrs);
1457         }
1458         else
1459             attrs = getAttr(pool, bit_i);
1460
1461         void* blk_base_addr = pool.findBase(p);
1462         size_t blk_size = pool.findSize(p);
1463         bool has_pm = has_pointermap(attrs);
1464         size_t pm_bitmask_size = 0;
1465         if (has_pm) {
1466             pm_bitmask_size = size_t.sizeof;
1467             // Retrieve pointer map bit mask if appropriate
1468             if (pm_bitmask is null) {
1469                 auto end_of_blk = cast(size_t**)(blk_base_addr +
1470                         blk_size - size_t.sizeof);
1471                 pm_bitmask = *end_of_blk;
1472             }
1473         }
1474
1475         if (opts.options.sentinel)
1476         {
1477             sentinel_Invariant(p);
1478             size_t sentinel_stored_size = *sentinel_size(p);
1479             if (sentinel_stored_size != size)
1480             {
1481                 void* p2 = malloc(size, attrs, pm_bitmask);
1482                 if (sentinel_stored_size < size)
1483                     size = sentinel_stored_size;
1484                 cstring.memcpy(p2, p, size);
1485                 p = p2;
1486             }
1487         }
1488         else
1489         {
1490             size += pm_bitmask_size;
1491             if (blk_size >= PAGESIZE && size >= PAGESIZE)
1492             {
1493                 auto psz = blk_size / PAGESIZE;
1494                 auto newsz = round_up(size, PAGESIZE);
1495                 if (newsz == psz)
1496                     return p;
1497
1498                 auto pagenum = (p - pool.baseAddr) / PAGESIZE;
1499
1500                 if (newsz < psz)
1501                 {
1502                     // Shrink in place
1503                     if (opts.options.mem_stomp)
1504                         memset(p + size - pm_bitmask_size, 0xF2,
1505                                 blk_size - size - pm_bitmask_size);
1506                     pool.freePages(pagenum + newsz, psz - newsz);
1507                     auto new_blk_size = (PAGESIZE * newsz);
1508                     // update the size cache, assuming that is very likely the
1509                     // size of this block will be queried in the near future
1510                     pool.update_cache(p, new_blk_size);
1511                     if (has_pm) {
1512                         auto end_of_blk = cast(size_t**)(blk_base_addr +
1513                                 new_blk_size - pm_bitmask_size);
1514                         *end_of_blk = pm_bitmask;
1515                     }
1516                     return p;
1517                 }
1518                 else if (pagenum + newsz <= pool.npages)
1519                 {
1520                     // Attempt to expand in place
1521                     for (size_t i = pagenum + psz; 1;)
1522                     {
1523                         if (i == pagenum + newsz)
1524                         {
1525                             if (opts.options.mem_stomp)
1526                                 memset(p + blk_size - pm_bitmask_size,
1527                                         0xF0, size - blk_size
1528                                         - pm_bitmask_size);
1529                             memset(pool.pagetable + pagenum +
1530                                     psz, B_PAGEPLUS, newsz - psz);
1531                             auto new_blk_size = (PAGESIZE * newsz);
1532                             // update the size cache, assuming that is very
1533                             // likely the size of this block will be queried in
1534                             // the near future
1535                             pool.update_cache(p, new_blk_size);
1536                             if (has_pm) {
1537                                 auto end_of_blk = cast(size_t**)(
1538                                         blk_base_addr + new_blk_size -
1539                                         pm_bitmask_size);
1540                                 *end_of_blk = pm_bitmask;
1541                             }
1542                             return p;
1543                         }
1544                         if (i == pool.npages)
1545                         {
1546                             break;
1547                         }
1548                         if (pool.pagetable[i] != B_FREE)
1549                             break;
1550                         i++;
1551                     }
1552                 }
1553             }
1554             // if new size is bigger or less than half
1555             if (blk_size < size || blk_size > size * 2)
1556             {
1557                 size -= pm_bitmask_size;
1558                 blk_size -= pm_bitmask_size;
1559                 void* p2 = malloc(size, attrs, pm_bitmask);
1560                 if (blk_size < size)
1561                     size = blk_size;
1562                 cstring.memcpy(p2, p, size);
1563                 p = p2;
1564             }
1565         }
1566     }
1567     return p;
1568 }
1569
1570
1571 /**
1572  * Attempt to in-place enlarge the memory block pointed to by p by at least
1573  * min_size beyond its current capacity, up to a maximum of max_size.  This
1574  * does not attempt to move the memory block (like realloc() does).
1575  *
1576  * Returns:
1577  *  0 if could not extend p,
1578  *  total size of entire memory block if successful.
1579  */
1580 private size_t extend(void* p, size_t minsize, size_t maxsize)
1581 in
1582 {
1583     assert( minsize <= maxsize );
1584 }
1585 body
1586 {
1587     if (opts.options.sentinel)
1588         return 0;
1589
1590     Pool* pool = findPool(p);
1591     if (pool is null)
1592         return 0;
1593
1594     // Retrieve attributes
1595     auto bit_i = cast(size_t)(p - pool.baseAddr) / 16;
1596     uint attrs = getAttr(pool, bit_i);
1597
1598     void* blk_base_addr = pool.findBase(p);
1599     size_t blk_size = pool.findSize(p);
1600     bool has_pm = has_pointermap(attrs);
1601     size_t* pm_bitmask = null;
1602     size_t pm_bitmask_size = 0;
1603     if (has_pm) {
1604         pm_bitmask_size = size_t.sizeof;
1605         // Retrieve pointer map bit mask
1606         auto end_of_blk = cast(size_t**)(blk_base_addr +
1607                 blk_size - size_t.sizeof);
1608         pm_bitmask = *end_of_blk;
1609
1610         minsize += size_t.sizeof;
1611         maxsize += size_t.sizeof;
1612     }
1613
1614     if (blk_size < PAGESIZE)
1615         return 0; // cannot extend buckets
1616
1617     auto psz = blk_size / PAGESIZE;
1618     auto minsz = round_up(minsize, PAGESIZE);
1619     auto maxsz = round_up(maxsize, PAGESIZE);
1620
1621     auto pagenum = (p - pool.baseAddr) / PAGESIZE;
1622
1623     size_t sz;
1624     for (sz = 0; sz < maxsz; sz++)
1625     {
1626         auto i = pagenum + psz + sz;
1627         if (i == pool.npages)
1628             break;
1629         if (pool.pagetable[i] != B_FREE)
1630         {
1631             if (sz < minsz)
1632                 return 0;
1633             break;
1634         }
1635     }
1636     if (sz < minsz)
1637         return 0;
1638
1639     size_t new_size = (psz + sz) * PAGESIZE;
1640
1641     if (opts.options.mem_stomp)
1642         memset(p + blk_size - pm_bitmask_size, 0xF0,
1643                 new_size - blk_size - pm_bitmask_size);
1644     memset(pool.pagetable + pagenum + psz, B_PAGEPLUS, sz);
1645     gc.p_cache = null;
1646     gc.size_cache = 0;
1647     // update the size cache, assuming that is very likely the size of this
1648     // block will be queried in the near future
1649     pool.update_cache(p, new_size);
1650
1651     if (has_pm) {
1652         new_size -= size_t.sizeof;
1653         auto end_of_blk = cast(size_t**)(blk_base_addr + new_size);
1654         *end_of_blk = pm_bitmask;
1655     }
1656     return new_size;
1657 }
1658
1659
1660 //
1661 //
1662 //
1663 private void free(void *p)
1664 {
1665     assert (p);
1666
1667     Pool*  pool;
1668     size_t pagenum;
1669     Bins   bin;
1670     size_t bit_i;
1671
1672     // Find which page it is in
1673     pool = findPool(p);
1674     if (!pool)                              // if not one of ours
1675         return;                             // ignore
1676     if (opts.options.sentinel) {
1677         sentinel_Invariant(p);
1678         p = sentinel_sub(p);
1679     }
1680     pagenum = cast(size_t)(p - pool.baseAddr) / PAGESIZE;
1681     bit_i = cast(size_t)(p - pool.baseAddr) / 16;
1682     clrAttr(pool, bit_i, BlkAttr.ALL_BITS);
1683
1684     bin = cast(Bins)pool.pagetable[pagenum];
1685     if (bin == B_PAGE)              // if large alloc
1686     {
1687         // Free pages
1688         size_t npages = 1;
1689         size_t n = pagenum;
1690         pool.freebits.set_group(bit_i, PAGESIZE / 16);
1691         while (++n < pool.npages && pool.pagetable[n] == B_PAGEPLUS)
1692             npages++;
1693         if (opts.options.mem_stomp)
1694             memset(p, 0xF2, npages * PAGESIZE);
1695         pool.freePages(pagenum, npages);
1696         // just in case we were caching this pointer
1697         pool.clear_cache(p);
1698     }
1699     else
1700     {
1701         // Add to free list
1702         List* list = cast(List*) p;
1703
1704         if (opts.options.mem_stomp)
1705             memset(p, 0xF2, binsize[bin]);
1706
1707         list.next = gc.free_list[bin];
1708         list.pool = pool;
1709         gc.free_list[bin] = list;
1710         pool.freebits.set(bit_i);
1711     }
1712 }
1713
1714
1715 /**
1716  * Determine the allocated size of pointer p.  If p is an interior pointer
1717  * or not a gc allocated pointer, return 0.
1718  */
1719 private size_t sizeOf(void *p)
1720 {
1721     assert (p);
1722
1723     if (opts.options.sentinel)
1724         p = sentinel_sub(p);
1725
1726     Pool* pool = findPool(p);
1727     if (pool is null)
1728         return 0;
1729
1730     auto biti = cast(size_t)(p - pool.baseAddr) / 16;
1731     uint attrs = getAttr(pool, biti);
1732
1733     size_t size = pool.findSize(p);
1734     size_t pm_bitmask_size = 0;
1735     if (has_pointermap(attrs))
1736         pm_bitmask_size = size_t.sizeof;
1737
1738     if (opts.options.sentinel) {
1739         // Check for interior pointer
1740         // This depends on:
1741         // 1) size is a power of 2 for less than PAGESIZE values
1742         // 2) base of memory pool is aligned on PAGESIZE boundary
1743         if (cast(size_t)p & (size - 1) & (PAGESIZE - 1))
1744             return 0;
1745         return size - SENTINEL_EXTRA - pm_bitmask_size;
1746     }
1747     else {
1748         if (p == gc.p_cache)
1749             return gc.size_cache;
1750
1751         // Check for interior pointer
1752         // This depends on:
1753         // 1) size is a power of 2 for less than PAGESIZE values
1754         // 2) base of memory pool is aligned on PAGESIZE boundary
1755         if (cast(size_t)p & (size - 1) & (PAGESIZE - 1))
1756             return 0;
1757
1758         gc.p_cache = p;
1759         gc.size_cache = size - pm_bitmask_size;
1760
1761         return gc.size_cache;
1762     }
1763 }
1764
1765
1766 /**
1767  * Verify that pointer p:
1768  *  1) belongs to this memory pool
1769  *  2) points to the start of an allocated piece of memory
1770  *  3) is not on a free list
1771  */
1772 private void checkNoSync(void *p)
1773 {
1774     assert(p);
1775
1776     if (opts.options.sentinel)
1777         sentinel_Invariant(p);
1778     debug (PTRCHECK)
1779     {
1780         Pool*  pool;
1781         size_t pagenum;
1782         Bins   bin;
1783         size_t size;
1784
1785         if (opts.options.sentinel)
1786             p = sentinel_sub(p);
1787         pool = findPool(p);
1788         assert(pool);
1789         pagenum = cast(size_t)(p - pool.baseAddr) / PAGESIZE;
1790         bin = cast(Bins)pool.pagetable[pagenum];
1791         assert(bin <= B_PAGE);
1792         size = binsize[bin];
1793         assert((cast(size_t)p & (size - 1)) == 0);
1794
1795         debug (PTRCHECK2)
1796         {
1797             if (bin < B_PAGE)
1798             {
1799                 // Check that p is not on a free list
1800                 for (List* list = gc.free_list[bin]; list; list = list.next)
1801                 {
1802                     assert(cast(void*)list != p);
1803                 }
1804             }
1805         }
1806     }
1807 }
1808
1809
1810 //
1811 //
1812 //
1813 private void setStackBottom(void *p)
1814 {
1815     version (STACKGROWSDOWN)
1816     {
1817         //p = (void *)((uint *)p + 4);
1818         if (p > gc.stack_bottom)
1819         {
1820             gc.stack_bottom = p;
1821         }
1822     }
1823     else
1824     {
1825         //p = (void *)((uint *)p - 4);
1826         if (p < gc.stack_bottom)
1827         {
1828             gc.stack_bottom = cast(char*)p;
1829         }
1830     }
1831 }
1832
1833
1834 /**
1835  * Retrieve statistics about garbage collection.
1836  * Useful for debugging and tuning.
1837  */
1838 private GCStats getStats()
1839 {
1840     GCStats stats;
1841     size_t psize = 0;
1842     size_t usize = 0;
1843     size_t flsize = 0;
1844
1845     size_t n;
1846     size_t bsize = 0;
1847
1848     for (n = 0; n < gc.pools.length; n++)
1849     {
1850         Pool* pool = gc.pools[n];
1851         psize += pool.npages * PAGESIZE;
1852         for (size_t j = 0; j < pool.npages; j++)
1853         {
1854             Bins bin = cast(Bins)pool.pagetable[j];
1855             if (bin == B_FREE)
1856                 stats.freeblocks++;
1857             else if (bin == B_PAGE)
1858                 stats.pageblocks++;
1859             else if (bin < B_PAGE)
1860                 bsize += PAGESIZE;
1861         }
1862     }
1863
1864     for (n = 0; n < B_PAGE; n++)
1865     {
1866         for (List* list = gc.free_list[n]; list; list = list.next)
1867             flsize += binsize[n];
1868     }
1869
1870     usize = bsize - flsize;
1871
1872     stats.poolsize = psize;
1873     stats.usedsize = bsize - flsize;
1874     stats.freelistsize = flsize;
1875     return stats;
1876 }
1877
1878 /******************* weak-reference support *********************/
1879
1880 private struct WeakPointer
1881 {
1882     Object reference;
1883
1884     void ondestroy(Object r)
1885     {
1886         assert(r is reference);
1887         // lock for memory consistency (parallel readers)
1888         // also ensures that weakpointerDestroy can be called while another
1889         // thread is freeing the reference with "delete"
1890         return locked!(void, () {
1891             reference = null;
1892         })();
1893     }
1894 }
1895
1896 /**
1897  * Create a weak pointer to the given object.
1898  * Returns a pointer to an opaque struct allocated in C memory.
1899  */
1900 void* weakpointerCreate( Object r )
1901 {
1902     if (r)
1903     {
1904         // must be allocated in C memory
1905         // 1. to hide the reference from the GC
1906         // 2. the GC doesn't scan delegates added by rt_attachDisposeEvent
1907         //    for references
1908         auto wp = cast(WeakPointer*)(cstdlib.malloc(WeakPointer.sizeof));
1909         if (!wp)
1910             onOutOfMemoryError();
1911         wp.reference = r;
1912         rt_attachDisposeEvent(r, &wp.ondestroy);
1913         return wp;
1914     }
1915     return null;
1916 }
1917
1918 /**
1919  * Destroy a weak pointer returned by weakpointerCreate().
1920  * If null is passed, nothing happens.
1921  */
1922 void weakpointerDestroy( void* p )
1923 {
1924     if (p)
1925     {
1926         auto wp = cast(WeakPointer*)p;
1927         // must be extra careful about the GC or parallel threads
1928         // finalizing the reference at the same time
1929         return locked!(void, () {
1930             if (wp.reference)
1931                 rt_detachDisposeEvent(wp.reference, &wp.ondestroy);
1932         })();
1933         cstdlib.free(wp);
1934     }
1935 }
1936
1937 /**
1938  * Query a weak pointer and return either the object passed to
1939  * weakpointerCreate, or null if it was free'd in the meantime.
1940  * If null is passed, null is returned.
1941  */
1942 Object weakpointerGet( void* p )
1943 {
1944     if (p)
1945     {
1946         // NOTE: could avoid the lock by using Fawzi style GC counters but
1947         // that'd require core.sync.Atomic and lots of care about memory
1948         // consistency it's an optional optimization see
1949         // http://dsource.org/projects/tango/browser/trunk/user/tango/core/Lifetime.d?rev=5100#L158
1950         return locked!(Object, () {
1951             return (cast(WeakPointer*)p).reference;
1952         })();
1953         }
1954 }
1955
1956
1957 /* ============================ Pool  =============================== */
1958
1959
1960 struct Pool
1961 {
1962     byte* baseAddr;
1963     byte* topAddr;
1964     GCBits mark;     // entries already scanned, or should not be scanned
1965     GCBits scan;     // entries that need to be scanned
1966     GCBits freebits; // entries that are on the free list
1967     GCBits finals;   // entries that need finalizer run on them
1968     GCBits noscan;   // entries that should not be scanned
1969
1970     size_t npages;
1971     ubyte* pagetable;
1972
1973     /// Cache for findSize()
1974     size_t cached_size;
1975     void* cached_ptr;
1976
1977     void clear_cache(void* ptr = null)
1978     {
1979         if (ptr is null || ptr is this.cached_ptr) {
1980             this.cached_ptr = null;
1981             this.cached_size = 0;
1982         }
1983     }
1984
1985     void update_cache(void* ptr, size_t size)
1986     {
1987         this.cached_ptr = ptr;
1988         this.cached_size = size;
1989     }
1990
1991     void initialize(size_t npages)
1992     {
1993         size_t poolsize = npages * PAGESIZE;
1994         assert(poolsize >= POOLSIZE);
1995         baseAddr = cast(byte *) os.alloc(poolsize);
1996
1997         // Some of the code depends on page alignment of memory pools
1998         assert((cast(size_t)baseAddr & (PAGESIZE - 1)) == 0);
1999
2000         if (!baseAddr)
2001         {
2002             npages = 0;
2003             poolsize = 0;
2004         }
2005         topAddr = baseAddr + poolsize;
2006
2007         size_t nbits = cast(size_t)poolsize / 16;
2008
2009         // if the GC will run in parallel in a fork()ed process, we need to
2010         // share the mark bits
2011         os.Vis vis = os.Vis.PRIV;
2012         if (opts.options.fork)
2013             vis = os.Vis.SHARED;
2014         mark.alloc(nbits, vis); // shared between mark and sweep
2015         freebits.alloc(nbits); // not used by the mark phase
2016         scan.alloc(nbits); // only used in the mark phase
2017         finals.alloc(nbits); // not used by the mark phase
2018         noscan.alloc(nbits); // mark phase *MUST* have a snapshot
2019
2020         // all is free when we start
2021         freebits.set_all();
2022
2023         // avoid accidental sweeping of new pools while using eager allocation
2024         if (gc.mark_proc_pid)
2025             mark.set_all();
2026
2027         pagetable = cast(ubyte*) cstdlib.malloc(npages);
2028         if (!pagetable)
2029             onOutOfMemoryError();
2030         memset(pagetable, B_FREE, npages);
2031
2032         this.npages = npages;
2033     }
2034
2035
2036     void Dtor()
2037     {
2038         if (baseAddr)
2039         {
2040             int result;
2041
2042             if (npages)
2043             {
2044                 result = os.dealloc(baseAddr, npages * PAGESIZE);
2045                 assert(result);
2046                 npages = 0;
2047             }
2048
2049             baseAddr = null;
2050             topAddr = null;
2051         }
2052         // See Gcx.Dtor() for the rationale of the null check.
2053         if (pagetable)
2054             cstdlib.free(pagetable);
2055
2056         os.Vis vis = os.Vis.PRIV;
2057         if (opts.options.fork)
2058             vis = os.Vis.SHARED;
2059         mark.Dtor(vis);
2060         freebits.Dtor();
2061         scan.Dtor();
2062         finals.Dtor();
2063         noscan.Dtor();
2064     }
2065
2066
2067     bool Invariant()
2068     {
2069         return true;
2070     }
2071
2072
2073     invariant
2074     {
2075         //mark.Invariant();
2076         //scan.Invariant();
2077         //freebits.Invariant();
2078         //finals.Invariant();
2079         //noscan.Invariant();
2080
2081         if (baseAddr)
2082         {
2083             //if (baseAddr + npages * PAGESIZE != topAddr)
2084                 //printf("baseAddr = %p, npages = %d, topAddr = %p\n", baseAddr, npages, topAddr);
2085             assert(baseAddr + npages * PAGESIZE == topAddr);
2086         }
2087
2088         for (size_t i = 0; i < npages; i++)
2089         {
2090             Bins bin = cast(Bins)pagetable[i];
2091             assert(bin < B_MAX);
2092         }
2093     }
2094
2095
2096     /**
2097      * Allocate n pages from Pool.
2098      * Returns OPFAIL on failure.
2099      */
2100     size_t allocPages(size_t n)
2101     {
2102         size_t i;
2103         size_t n2;
2104
2105         n2 = n;
2106         for (i = 0; i < npages; i++)
2107         {
2108             if (pagetable[i] == B_FREE)
2109             {
2110                 if (--n2 == 0)
2111                     return i - n + 1;
2112             }
2113             else
2114                 n2 = n;
2115         }
2116         return OPFAIL;
2117     }
2118
2119
2120     /**
2121      * Free npages pages starting with pagenum.
2122      */
2123     void freePages(size_t pagenum, size_t npages)
2124     {
2125         memset(&pagetable[pagenum], B_FREE, npages);
2126     }
2127
2128
2129     /**
2130      * Find base address of block containing pointer p.
2131      * Returns null if the pointer doesn't belong to this pool
2132      */
2133     void* findBase(void *p)
2134     {
2135         size_t offset = cast(size_t)(p - this.baseAddr);
2136         size_t pagenum = offset / PAGESIZE;
2137         Bins bin = cast(Bins)this.pagetable[pagenum];
2138         // Adjust bit to be at start of allocated memory block
2139         if (bin <= B_PAGE)
2140             return this.baseAddr + (offset & notbinsize[bin]);
2141         if (bin == B_PAGEPLUS) {
2142             do {
2143                 --pagenum, offset -= PAGESIZE;
2144             } while (cast(Bins)this.pagetable[pagenum] == B_PAGEPLUS);
2145             return this.baseAddr + (offset & (offset.max ^ (PAGESIZE-1)));
2146         }
2147         // we are in a B_FREE page
2148         return null;
2149     }
2150
2151
2152     /**
2153      * Find size of pointer p.
2154      * Returns 0 if p doesn't belong to this pool if if it's block size is less
2155      * than a PAGE.
2156      */
2157     size_t findSize(void *p)
2158     {
2159         size_t pagenum = cast(size_t)(p - this.baseAddr) / PAGESIZE;
2160         Bins bin = cast(Bins)this.pagetable[pagenum];
2161         if (bin != B_PAGE)
2162             return binsize[bin];
2163         if (this.cached_ptr == p)
2164             return this.cached_size;
2165         size_t i = pagenum + 1;
2166         for (; i < this.npages; i++)
2167             if (this.pagetable[i] != B_PAGEPLUS)
2168                 break;
2169         this.cached_ptr = p;
2170         this.cached_size = (i - pagenum) * PAGESIZE;
2171         return this.cached_size;
2172     }
2173
2174
2175     /**
2176      * Used for sorting pools
2177      */
2178     int opCmp(in Pool other)
2179     {
2180         if (baseAddr < other.baseAddr)
2181             return -1;
2182         else
2183         return cast(int)(baseAddr > other.baseAddr);
2184     }
2185 }
2186
2187
2188 /* ============================ SENTINEL =============================== */
2189
2190
2191 const size_t SENTINEL_PRE = cast(size_t) 0xF4F4F4F4F4F4F4F4UL; // 32 or 64 bits
2192 const ubyte SENTINEL_POST = 0xF5;           // 8 bits
2193 const uint SENTINEL_EXTRA = 2 * size_t.sizeof + 1;
2194
2195
2196 size_t* sentinel_size(void *p)  { return &(cast(size_t *)p)[-2]; }
2197 size_t* sentinel_pre(void *p)   { return &(cast(size_t *)p)[-1]; }
2198 ubyte* sentinel_post(void *p) { return &(cast(ubyte *)p)[*sentinel_size(p)]; }
2199
2200
2201 void sentinel_init(void *p, size_t size)
2202 {
2203     *sentinel_size(p) = size;
2204     *sentinel_pre(p) = SENTINEL_PRE;
2205     *sentinel_post(p) = SENTINEL_POST;
2206 }
2207
2208
2209 void sentinel_Invariant(void *p)
2210 {
2211     if (*sentinel_pre(p) != SENTINEL_PRE ||
2212             *sentinel_post(p) != SENTINEL_POST)
2213         cstdlib.abort();
2214 }
2215
2216
2217 void *sentinel_add(void *p)
2218 {
2219     return p + 2 * size_t.sizeof;
2220 }
2221
2222
2223 void *sentinel_sub(void *p)
2224 {
2225     return p - 2 * size_t.sizeof;
2226 }
2227
2228
2229
2230 /* ============================ C Public Interface ======================== */
2231
2232
2233 private int _termCleanupLevel=1;
2234
2235 extern (C):
2236
2237 /// sets the cleanup level done by gc
2238 /// 0: none
2239 /// 1: fullCollect
2240 /// 2: fullCollect ignoring stack roots (might crash daemonThreads)
2241 /// result !=0 if the value was invalid
2242 int gc_setTermCleanupLevel(int cLevel)
2243 {
2244     if (cLevel<0 || cLevel>2) return cLevel;
2245     _termCleanupLevel=cLevel;
2246     return 0;
2247 }
2248
2249 /// returns the cleanup level done by gc
2250 int gc_getTermCleanupLevel()
2251 {
2252     return _termCleanupLevel;
2253 }
2254
2255 void gc_init()
2256 {
2257     scope (exit) assert (Invariant());
2258     gc = cast(GC*) cstdlib.calloc(1, GC.sizeof);
2259     *gc = GC.init;
2260     initialize();
2261     version (DigitalMars) version(OSX) {
2262         _d_osx_image_init();
2263     }
2264     // NOTE: The GC must initialize the thread library
2265     //       before its first collection.
2266     thread_init();
2267 }
2268
2269 void gc_term()
2270 {
2271     assert (Invariant());
2272     if (_termCleanupLevel<1) {
2273         // no cleanup
2274     } else if (_termCleanupLevel==2){
2275         // a more complete cleanup
2276         // NOTE: There may be daemons threads still running when this routine is
2277         //       called.  If so, cleaning memory out from under then is a good
2278         //       way to make them crash horribly.
2279         //       Often this probably doesn't matter much since the app is
2280         //       supposed to be shutting down anyway, but for example tests might
2281         //       crash (and be considerd failed even if the test was ok).
2282         //       thus this is not the default and should be enabled by
2283         //       I'm disabling cleanup for now until I can think about it some
2284         //       more.
2285         //
2286         // not really a 'collect all' -- still scans static data area, roots,
2287         // and ranges.
2288         return locked!(void, () {
2289             gc.no_stack++;
2290             fullcollectshell();
2291             gc.no_stack--;
2292         })();
2293     } else {
2294         // default (safe) clenup
2295         return locked!(void, () {
2296             fullcollectshell();
2297         })();
2298     }
2299 }
2300
2301 void gc_enable()
2302 {
2303     return locked!(void, () {
2304         assert (Invariant()); scope (exit) assert (Invariant());
2305         assert (gc.disabled > 0);
2306         gc.disabled--;
2307     })();
2308 }
2309
2310 void gc_disable()
2311 {
2312     return locked!(void, () {
2313         assert (Invariant()); scope (exit) assert (Invariant());
2314         gc.disabled++;
2315     })();
2316 }
2317
2318 void gc_collect()
2319 {
2320     return locked!(void, () {
2321         assert (Invariant()); scope (exit) assert (Invariant());
2322         fullcollectshell();
2323     })();
2324 }
2325
2326
2327 void gc_minimize()
2328 {
2329     return locked!(void, () {
2330         assert (Invariant()); scope (exit) assert (Invariant());
2331         minimize();
2332     })();
2333 }
2334
2335 uint gc_getAttr(void* p)
2336 {
2337     if (p is null)
2338         return 0;
2339     return locked!(uint, () {
2340         assert (Invariant()); scope (exit) assert (Invariant());
2341         Pool* pool = findPool(p);
2342         if (pool is null)
2343             return 0u;
2344         auto bit_i = cast(size_t)(p - pool.baseAddr) / 16;
2345         return getAttr(pool, bit_i);
2346     })();
2347 }
2348
2349 uint gc_setAttr(void* p, uint attrs)
2350 {
2351     if (p is null)
2352         return 0;
2353     return locked!(uint, () {
2354         assert (Invariant()); scope (exit) assert (Invariant());
2355         Pool* pool = findPool(p);
2356         if (pool is null)
2357             return 0u;
2358         auto bit_i = cast(size_t)(p - pool.baseAddr) / 16;
2359         uint old_attrs = getAttr(pool, bit_i);
2360         setAttr(pool, bit_i, attrs);
2361         return old_attrs;
2362     })();
2363 }
2364
2365 uint gc_clrAttr(void* p, uint attrs)
2366 {
2367     if (p is null)
2368         return 0;
2369     return locked!(uint, () {
2370         assert (Invariant()); scope (exit) assert (Invariant());
2371         Pool* pool = findPool(p);
2372         if (pool is null)
2373             return 0u;
2374         auto bit_i = cast(size_t)(p - pool.baseAddr) / 16;
2375         uint old_attrs = getAttr(pool, bit_i);
2376         clrAttr(pool, bit_i, attrs);
2377         return old_attrs;
2378     })();
2379 }
2380
2381 void* gc_malloc(size_t size, uint attrs = 0,
2382         PointerMap ptrmap = PointerMap.init)
2383 {
2384     if (size == 0)
2385         return null;
2386     return locked!(void*, () {
2387         assert (Invariant()); scope (exit) assert (Invariant());
2388         return malloc(size, attrs, ptrmap.bits.ptr);
2389     })();
2390 }
2391
2392 void* gc_calloc(size_t size, uint attrs = 0,
2393         PointerMap ptrmap = PointerMap.init)
2394 {
2395     if (size == 0)
2396         return null;
2397     return locked!(void*, () {
2398         assert (Invariant()); scope (exit) assert (Invariant());
2399         return calloc(size, attrs, ptrmap.bits.ptr);
2400     })();
2401 }
2402
2403 void* gc_realloc(void* p, size_t size, uint attrs = 0,
2404         PointerMap ptrmap = PointerMap.init)
2405 {
2406     return locked!(void*, () {
2407         assert (Invariant()); scope (exit) assert (Invariant());
2408         return realloc(p, size, attrs, ptrmap.bits.ptr);
2409     })();
2410 }
2411
2412 size_t gc_extend(void* p, size_t min_size, size_t max_size)
2413 {
2414     return locked!(size_t, () {
2415         assert (Invariant()); scope (exit) assert (Invariant());
2416         return extend(p, min_size, max_size);
2417     })();
2418 }
2419
2420 size_t gc_reserve(size_t size)
2421 {
2422     if (size == 0)
2423         return 0;
2424     return locked!(size_t, () {
2425         assert (Invariant()); scope (exit) assert (Invariant());
2426         return reserve(size);
2427     })();
2428 }
2429
2430 void gc_free(void* p)
2431 {
2432     if (p is null)
2433         return;
2434     return locked!(void, () {
2435         assert (Invariant()); scope (exit) assert (Invariant());
2436         free(p);
2437     })();
2438 }
2439
2440 void* gc_addrOf(void* p)
2441 {
2442     if (p is null)
2443         return null;
2444     return locked!(void*, () {
2445         assert (Invariant()); scope (exit) assert (Invariant());
2446         Pool* pool = findPool(p);
2447         if (pool is null)
2448             return null;
2449         return pool.findBase(p);
2450     })();
2451 }
2452
2453 size_t gc_sizeOf(void* p)
2454 {
2455     if (p is null)
2456         return 0;
2457     return locked!(size_t, () {
2458         assert (Invariant()); scope (exit) assert (Invariant());
2459         return sizeOf(p);
2460     })();
2461 }
2462
2463 BlkInfo gc_query(void* p)
2464 {
2465     if (p is null)
2466         return BlkInfo.init;
2467     return locked!(BlkInfo, () {
2468         assert (Invariant()); scope (exit) assert (Invariant());
2469         return getInfo(p);
2470     })();
2471 }
2472
2473 // NOTE: This routine is experimental.  The stats or function name may change
2474 //       before it is made officially available.
2475 GCStats gc_stats()
2476 {
2477     return locked!(GCStats, () {
2478         assert (Invariant()); scope (exit) assert (Invariant());
2479         return getStats();
2480     })();
2481 }
2482
2483 void gc_addRoot(void* p)
2484 {
2485     if (p is null)
2486         return;
2487     return locked!(void, () {
2488         assert (Invariant()); scope (exit) assert (Invariant());
2489         if (gc.roots.append(p) is null)
2490             onOutOfMemoryError();
2491     })();
2492 }
2493
2494 void gc_addRange(void* p, size_t size)
2495 {
2496     if (p is null || size == 0)
2497         return;
2498     return locked!(void, () {
2499         assert (Invariant()); scope (exit) assert (Invariant());
2500         if (gc.ranges.append(Range(p, p + size)) is null)
2501             onOutOfMemoryError();
2502     })();
2503 }
2504
2505 void gc_removeRoot(void* p)
2506 {
2507     if (p is null)
2508         return;
2509     return locked!(void, () {
2510         assert (Invariant()); scope (exit) assert (Invariant());
2511         bool r = gc.roots.remove(p);
2512         assert (r);
2513     })();
2514 }
2515
2516 void gc_removeRange(void* p)
2517 {
2518     if (p is null)
2519         return;
2520     return locked!(void, () {
2521         assert (Invariant()); scope (exit) assert (Invariant());
2522         bool r = gc.ranges.remove(Range(p, null));
2523         assert (r);
2524     })();
2525 }
2526
2527 void* gc_weakpointerCreate(Object r)
2528 {
2529     // weakpointers do their own locking
2530     return weakpointerCreate(r);
2531 }
2532
2533 void gc_weakpointerDestroy(void* wp)
2534 {
2535     // weakpointers do their own locking
2536     weakpointerDestroy(wp);
2537 }
2538
2539 Object gc_weakpointerGet(void* wp)
2540 {
2541     // weakpointers do their own locking
2542     return weakpointerGet(wp);
2543 }
2544
2545
2546 // vim: set et sw=4 sts=4 :