]> git.llucax.com Git - software/dgc/cdgc.git/blob - rt/gc/cdgc/gc.d
59d9f55496e4cd0e0638250b601988ceeba0cea6
[software/dgc/cdgc.git] / rt / gc / cdgc / gc.d
1 /**
2  * This module contains the garbage collector implementation.
3  *
4  * Copyright: Copyright (C) 2001-2007 Digital Mars, www.digitalmars.com.
5  *            All rights reserved.
6  * License:
7  *  This software is provided 'as-is', without any express or implied
8  *  warranty. In no event will the authors be held liable for any damages
9  *  arising from the use of this software.
10  *
11  *  Permission is granted to anyone to use this software for any purpose,
12  *  including commercial applications, and to alter it and redistribute it
13  *  freely, in both source and binary form, subject to the following
14  *  restrictions:
15  *
16  *  o  The origin of this software must not be misrepresented; you must not
17  *     claim that you wrote the original software. If you use this software
18  *     in a product, an acknowledgment in the product documentation would be
19  *     appreciated but is not required.
20  *  o  Altered source versions must be plainly marked as such, and must not
21  *     be misrepresented as being the original software.
22  *  o  This notice may not be removed or altered from any source
23  *     distribution.
24  * Authors:   Walter Bright, David Friedman, Sean Kelly
25  */
26
27 module rt.gc.cdgc.gc;
28
29 // D Programming Language Garbage Collector implementation
30
31 /************** Debugging ***************************/
32
33 //debug = COLLECT_PRINTF;       // turn on printf's
34 //debug = PTRCHECK;             // more pointer checking
35 //debug = PTRCHECK2;            // thorough but slow pointer checking
36
37 /*************** Configuration *********************/
38
39 version = STACKGROWSDOWN;       // growing the stack means subtracting from the stack pointer
40                                 // (use for Intel X86 CPUs)
41                                 // else growing the stack means adding to the stack pointer
42
43 /***************************************************/
44
45 import rt.gc.cdgc.bits: GCBits;
46 import rt.gc.cdgc.stats: GCStats, Stats;
47 import dynarray = rt.gc.cdgc.dynarray;
48 import os = rt.gc.cdgc.os;
49 import opts = rt.gc.cdgc.opts;
50
51 import cstdlib = tango.stdc.stdlib;
52 import cstring = tango.stdc.string;
53
54 /*
55  * This is a small optimization that proved it's usefulness. For small chunks
56  * or memory memset() seems to be slower (probably because of the call) that
57  * simply doing a simple loop to set the memory.
58  */
59 void memset(void* dst, int c, size_t n)
60 {
61     // This number (32) has been determined empirically
62     if (n > 32) {
63         cstring.memset(dst, c, n);
64         return;
65     }
66     auto p = cast(ubyte*)(dst);
67     while (n-- > 0)
68         *p++ = c;
69 }
70
71 version (GNU)
72 {
73     // BUG: The following import will likely not work, since the gcc
74     //      subdirectory is elsewhere.  Instead, perhaps the functions
75     //      could be declared directly or some other resolution could
76     //      be found.
77     static import gcc.builtins; // for __builtin_unwind_int
78 }
79
80 struct BlkInfo
81 {
82     void*  base;
83     size_t size;
84     uint   attr;
85 }
86
87 package enum BlkAttr : uint
88 {
89     FINALIZE = 0b0000_0001,
90     NO_SCAN  = 0b0000_0010,
91     NO_MOVE  = 0b0000_0100,
92     ALL_BITS = 0b1111_1111
93 }
94
95 package bool has_pointermap(uint attrs)
96 {
97     return !opts.options.conservative && !(attrs & BlkAttr.NO_SCAN);
98 }
99
100 private
101 {
102     alias void delegate(Object) DEvent;
103     alias void delegate( void*, void* ) scanFn;
104     enum { OPFAIL = ~cast(size_t)0 }
105
106     extern (C)
107     {
108         version (DigitalMars) version(OSX)
109             oid _d_osx_image_init();
110
111         void* rt_stackBottom();
112         void* rt_stackTop();
113         void rt_finalize( void* p, bool det = true );
114         void rt_attachDisposeEvent(Object h, DEvent e);
115         bool rt_detachDisposeEvent(Object h, DEvent e);
116         void rt_scanStaticData( scanFn scan );
117
118         void thread_init();
119         bool thread_needLock();
120         void thread_suspendAll();
121         void thread_resumeAll();
122         void thread_scanAll( scanFn fn, void* curStackTop = null );
123
124         void onOutOfMemoryError();
125     }
126 }
127
128
129 enum
130 {
131     PAGESIZE =    4096,
132     POOLSIZE =   (4096*256),
133 }
134
135
136 enum
137 {
138     B_16,
139     B_32,
140     B_64,
141     B_128,
142     B_256,
143     B_512,
144     B_1024,
145     B_2048,
146     B_PAGE,             // start of large alloc
147     B_PAGEPLUS,         // continuation of large alloc
148     B_FREE,             // free page
149     B_MAX
150 }
151
152
153 alias ubyte Bins;
154
155
156 struct List
157 {
158     List* next;
159     Pool* pool;
160 }
161
162
163 struct Range
164 {
165     void *pbot;
166     void *ptop;
167     int opCmp(in Range other)
168     {
169         if (pbot < other.pbot)
170             return -1;
171         else
172         return cast(int)(pbot > other.pbot);
173     }
174 }
175
176
177 const uint binsize[B_MAX] = [ 16,32,64,128,256,512,1024,2048,4096 ];
178 const uint notbinsize[B_MAX] = [ ~(16u-1),~(32u-1),~(64u-1),~(128u-1),~(256u-1),
179                                 ~(512u-1),~(1024u-1),~(2048u-1),~(4096u-1) ];
180
181
182 /* ============================ GC =============================== */
183
184
185 class GCLock {} // just a dummy so we can get a global lock
186
187
188 struct GC
189 {
190     // global lock
191     ClassInfo lock;
192
193     void* p_cache;
194     size_t size_cache;
195
196     // !=0 means don't scan stack
197     uint no_stack;
198     bool any_changes;
199     void* stack_bottom;
200     uint inited;
201     /// Turn off collections if > 0
202     int disabled;
203
204     /// min(pool.baseAddr)
205     byte *min_addr;
206     /// max(pool.topAddr)
207     byte *max_addr;
208
209     /// Free list for each size
210     List*[B_MAX] free_list;
211
212     dynarray.DynArray!(void*) roots;
213     dynarray.DynArray!(Range) ranges;
214     dynarray.DynArray!(Pool*) pools;
215
216     Stats stats;
217 }
218
219 // call locked if necessary
220 private T locked(T, alias Code)()
221 {
222     if (thread_needLock())
223         synchronized (gc.lock) return Code();
224     else
225        return Code();
226 }
227
228 private GC* gc;
229
230 bool Invariant()
231 {
232     assert (gc !is null);
233     if (gc.inited) {
234         for (size_t i = 0; i < gc.pools.length; i++) {
235             Pool* pool = gc.pools[i];
236             pool.Invariant();
237             if (i == 0)
238                 assert(gc.min_addr == pool.baseAddr);
239             if (i + 1 < gc.pools.length)
240                 assert(*pool < *gc.pools[i + 1]);
241             else if (i + 1 == gc.pools.length)
242                 assert(gc.max_addr == pool.topAddr);
243         }
244
245         gc.roots.Invariant();
246         gc.ranges.Invariant();
247
248         for (size_t i = 0; i < gc.ranges.length; i++) {
249             assert(gc.ranges[i].pbot);
250             assert(gc.ranges[i].ptop);
251             assert(gc.ranges[i].pbot <= gc.ranges[i].ptop);
252         }
253
254         for (size_t i = 0; i < B_PAGE; i++) {
255             for (List *list = gc.free_list[i]; list; list = list.next) {
256                 assert (list.pool !is null);
257                 auto p = cast(byte*) list;
258                 assert (p >= list.pool.baseAddr);
259                 assert (p < list.pool.topAddr);
260             }
261         }
262     }
263     return true;
264 }
265
266
267 /**
268  * Find Pool that pointer is in.
269  * Return null if not in a Pool.
270  * Assume pools is sorted.
271  */
272 Pool* findPool(void* p)
273 {
274     if (p < gc.min_addr || p >= gc.max_addr)
275         return null;
276     if (gc.pools.length == 0)
277         return null;
278     if (gc.pools.length == 1)
279         return gc.pools[0];
280     /// The pooltable[] is sorted by address, so do a binary search
281     size_t low = 0;
282     size_t high = gc.pools.length - 1;
283     while (low <= high) {
284         size_t mid = (low + high) / 2;
285         auto pool = gc.pools[mid];
286         if (p < pool.baseAddr)
287             high = mid - 1;
288         else if (p >= pool.topAddr)
289             low = mid + 1;
290         else
291             return pool;
292     }
293     // Not found
294     return null;
295 }
296
297
298 /**
299  * Determine the base address of the block containing p.  If p is not a gc
300  * allocated pointer, return null.
301  */
302 BlkInfo getInfo(void* p)
303 {
304     assert (p !is null);
305     Pool* pool = findPool(p);
306     if (pool is null)
307         return BlkInfo.init;
308     BlkInfo info;
309     info.base = pool.findBase(p);
310     if (info.base is null)
311         return BlkInfo.init;
312     info.size = pool.findSize(info.base);
313     info.attr = getAttr(pool, cast(size_t)(info.base - pool.baseAddr) / 16u);
314     if (has_pointermap(info.attr)) {
315         info.size -= size_t.sizeof; // PointerMap bitmask
316         // Points to the PointerMap bitmask pointer, not user data
317         if (p >= (info.base + info.size)) {
318             return BlkInfo.init;
319         }
320     }
321     if (opts.options.sentinel) {
322         info.base = sentinel_add(info.base);
323         // points to sentinel data, not user data
324         if (p < info.base || p >= sentinel_post(info.base))
325             return BlkInfo.init;
326         info.size -= SENTINEL_EXTRA;
327     }
328     return info;
329 }
330
331
332 /**
333  * Compute bin for size.
334  */
335 Bins findBin(size_t size)
336 {
337     Bins bin;
338     if (size <= 256)
339     {
340         if (size <= 64)
341         {
342             if (size <= 16)
343                 bin = B_16;
344             else if (size <= 32)
345                 bin = B_32;
346             else
347                 bin = B_64;
348         }
349         else
350         {
351             if (size <= 128)
352                 bin = B_128;
353             else
354                 bin = B_256;
355         }
356     }
357     else
358     {
359         if (size <= 1024)
360         {
361             if (size <= 512)
362                 bin = B_512;
363             else
364                 bin = B_1024;
365         }
366         else
367         {
368             if (size <= 2048)
369                 bin = B_2048;
370             else
371                 bin = B_PAGE;
372         }
373     }
374     return bin;
375 }
376
377
378 /**
379  * Allocate a new pool of at least size bytes.
380  * Sort it into pools.
381  * Mark all memory in the pool as B_FREE.
382  * Return the actual number of bytes reserved or 0 on error.
383  */
384 size_t reserve(size_t size)
385 {
386     assert(size != 0);
387     size_t npages = (size + PAGESIZE - 1) / PAGESIZE;
388     Pool*  pool = newPool(npages);
389
390     if (!pool)
391         return 0;
392     return pool.npages * PAGESIZE;
393 }
394
395
396 /**
397  * Minimizes physical memory usage by returning free pools to the OS.
398  */
399 void minimize()
400 {
401     size_t n;
402     size_t pn;
403     Pool* pool;
404
405     for (n = 0; n < gc.pools.length; n++)
406     {
407         pool = gc.pools[n];
408         for (pn = 0; pn < pool.npages; pn++)
409         {
410             if (cast(Bins)pool.pagetable[pn] != B_FREE)
411                 break;
412         }
413         if (pn < pool.npages)
414             continue;
415         pool.Dtor();
416         cstdlib.free(pool);
417         gc.pools.remove_at(n);
418         n--;
419     }
420     gc.min_addr = gc.pools[0].baseAddr;
421     gc.max_addr = gc.pools[gc.pools.length - 1].topAddr;
422 }
423
424
425 /**
426  * Allocate a chunk of memory that is larger than a page.
427  * Return null if out of memory.
428  */
429 void* bigAlloc(size_t size, out Pool* pool)
430 {
431     size_t npages;
432     size_t n;
433     size_t pn;
434     size_t freedpages;
435     void*  p;
436     int    state;
437
438     npages = (size + PAGESIZE - 1) / PAGESIZE;
439
440     for (state = 0; ; )
441     {
442         // This code could use some refinement when repeatedly
443         // allocating very large arrays.
444
445         for (n = 0; n < gc.pools.length; n++)
446         {
447             pool = gc.pools[n];
448             pn = pool.allocPages(npages);
449             if (pn != OPFAIL)
450                 goto L1;
451         }
452
453         // Failed
454         switch (state)
455         {
456         case 0:
457             if (gc.disabled)
458             {
459                 state = 1;
460                 continue;
461             }
462             // Try collecting
463             freedpages = fullcollectshell();
464             if (freedpages >= gc.pools.length * ((POOLSIZE / PAGESIZE) / 4))
465             {
466                 state = 1;
467                 continue;
468             }
469             // Release empty pools to prevent bloat
470             minimize();
471             // Allocate new pool
472             pool = newPool(npages);
473             if (!pool)
474             {
475                 state = 2;
476                 continue;
477             }
478             pn = pool.allocPages(npages);
479             assert(pn != OPFAIL);
480             goto L1;
481         case 1:
482             // Release empty pools to prevent bloat
483             minimize();
484             // Allocate new pool
485             pool = newPool(npages);
486             if (!pool)
487                 goto Lnomemory;
488             pn = pool.allocPages(npages);
489             assert(pn != OPFAIL);
490             goto L1;
491         case 2:
492             goto Lnomemory;
493         default:
494             assert(false);
495         }
496     }
497
498   L1:
499     pool.pagetable[pn] = B_PAGE;
500     if (npages > 1)
501         memset(&pool.pagetable[pn + 1], B_PAGEPLUS, npages - 1);
502     p = pool.baseAddr + pn * PAGESIZE;
503     memset(cast(char *)p + size, 0, npages * PAGESIZE - size);
504     if (opts.options.mem_stomp)
505         memset(p, 0xF1, size);
506     return p;
507
508   Lnomemory:
509     return null; // let mallocNoSync handle the error
510 }
511
512
513 /**
514  * Allocate a new pool with at least npages in it.
515  * Sort it into pools.
516  * Return null if failed.
517  */
518 Pool *newPool(size_t npages)
519 {
520     // Minimum of POOLSIZE
521     if (npages < POOLSIZE/PAGESIZE)
522         npages = POOLSIZE/PAGESIZE;
523     else if (npages > POOLSIZE/PAGESIZE)
524     {
525         // Give us 150% of requested size, so there's room to extend
526         auto n = npages + (npages >> 1);
527         if (n < size_t.max/PAGESIZE)
528             npages = n;
529     }
530
531     // Allocate successively larger pools up to 8 megs
532     if (gc.pools.length)
533     {
534         size_t n = gc.pools.length;
535         if (n > 8)
536             n = 8;                  // cap pool size at 8 megs
537         n *= (POOLSIZE / PAGESIZE);
538         if (npages < n)
539             npages = n;
540     }
541
542     auto pool = cast(Pool*) cstdlib.calloc(1, Pool.sizeof);
543     if (pool is null)
544         return null;
545     pool.initialize(npages);
546     if (!pool.baseAddr)
547     {
548         pool.Dtor();
549         return null;
550     }
551
552     auto inserted_pool = *gc.pools.insert_sorted!("*a < *b")(pool);
553     if (inserted_pool is null) {
554         pool.Dtor();
555         return null;
556     }
557     assert (inserted_pool is pool);
558     gc.min_addr = gc.pools[0].baseAddr;
559     gc.max_addr = gc.pools[gc.pools.length - 1].topAddr;
560     return pool;
561 }
562
563
564 /**
565  * Allocate a page of bin's.
566  * Returns:
567  *  0       failed
568  */
569 int allocPage(Bins bin)
570 {
571     Pool*  pool;
572     size_t n;
573     size_t pn;
574     byte*  p;
575     byte*  ptop;
576
577     for (n = 0; n < gc.pools.length; n++)
578     {
579         pool = gc.pools[n];
580         pn = pool.allocPages(1);
581         if (pn != OPFAIL)
582             goto L1;
583     }
584     return 0;               // failed
585
586   L1:
587     pool.pagetable[pn] = cast(ubyte)bin;
588
589     // Convert page to free list
590     size_t size = binsize[bin];
591     auto list_head = &gc.free_list[bin];
592
593     p = pool.baseAddr + pn * PAGESIZE;
594     ptop = p + PAGESIZE;
595     for (; p < ptop; p += size)
596     {
597         List* l = cast(List *) p;
598         l.next = *list_head;
599         l.pool = pool;
600         *list_head = l;
601     }
602     return 1;
603 }
604
605
606 /**
607  * Search a range of memory values and mark any pointers into the GC pool using
608  * type information (bitmask of pointer locations).
609  */
610 void mark_range(void *pbot, void *ptop, size_t* pm_bitmask)
611 {
612     // TODO: make our own assert because assert uses the GC
613     assert (pbot <= ptop);
614
615     const BITS_PER_WORD = size_t.sizeof * 8;
616
617     void **p1 = cast(void **)pbot;
618     void **p2 = cast(void **)ptop;
619     size_t pcache = 0;
620     bool changes = false;
621
622     size_t type_size = pm_bitmask[0];
623     size_t* pm_bits = pm_bitmask + 1;
624     bool has_type_info = type_size != 1 || pm_bits[0] != 1 || pm_bits[1] != 0;
625
626     //printf("marking range: %p -> %p\n", pbot, ptop);
627     for (; p1 + type_size <= p2; p1 += type_size) {
628         for (size_t n = 0; n < type_size; n++) {
629             // scan bit set for this word
630             if (has_type_info &&
631                     !(pm_bits[n / BITS_PER_WORD] & (1 << (n % BITS_PER_WORD))))
632                 continue;
633
634             void* p = *(p1 + n);
635
636             if (p < gc.min_addr || p >= gc.max_addr)
637                 continue;
638
639             if ((cast(size_t)p & ~(PAGESIZE-1)) == pcache)
640                 continue;
641
642             Pool* pool = findPool(p);
643             if (pool)
644             {
645                 size_t offset = cast(size_t)(p - pool.baseAddr);
646                 size_t bit_i = void;
647                 size_t pn = offset / PAGESIZE;
648                 Bins   bin = cast(Bins)pool.pagetable[pn];
649
650                 // Cache B_PAGE, B_PAGEPLUS and B_FREE lookups
651                 if (bin >= B_PAGE)
652                     pcache = cast(size_t)p & ~(PAGESIZE-1);
653
654                 // Adjust bit to be at start of allocated memory block
655                 if (bin <= B_PAGE)
656                     bit_i = (offset & notbinsize[bin]) / 16;
657                 else if (bin == B_PAGEPLUS)
658                 {
659                     do
660                     {
661                         --pn;
662                     }
663                     while (cast(Bins)pool.pagetable[pn] == B_PAGEPLUS);
664                     bit_i = pn * (PAGESIZE / 16);
665                 }
666                 else // Don't mark bits in B_FREE pages
667                     continue;
668
669                 if (!pool.mark.test(bit_i))
670                 {
671                     pool.mark.set(bit_i);
672                     if (!pool.noscan.test(bit_i))
673                     {
674                         pool.scan.set(bit_i);
675                         changes = true;
676                     }
677                 }
678             }
679         }
680     }
681     if (changes)
682         gc.any_changes = true;
683 }
684
685 /**
686  * Return number of full pages free'd.
687  */
688 size_t fullcollectshell()
689 {
690     gc.stats.collection_started();
691     scope (exit)
692         gc.stats.collection_finished();
693
694     // The purpose of the 'shell' is to ensure all the registers
695     // get put on the stack so they'll be scanned
696     void *sp;
697     size_t result;
698     version (GNU)
699     {
700         gcc.builtins.__builtin_unwind_init();
701         sp = & sp;
702     }
703     else version(LDC)
704     {
705         version(X86)
706         {
707             uint eax,ecx,edx,ebx,ebp,esi,edi;
708             asm
709             {
710                 mov eax[EBP], EAX      ;
711                 mov ecx[EBP], ECX      ;
712                 mov edx[EBP], EDX      ;
713                 mov ebx[EBP], EBX      ;
714                 mov ebp[EBP], EBP      ;
715                 mov esi[EBP], ESI      ;
716                 mov edi[EBP], EDI      ;
717                 mov  sp[EBP], ESP      ;
718             }
719         }
720         else version (X86_64)
721         {
722             ulong rax,rbx,rcx,rdx,rbp,rsi,rdi,r8,r9,r10,r11,r12,r13,r14,r15;
723             asm
724             {
725                 movq rax[RBP], RAX      ;
726                 movq rbx[RBP], RBX      ;
727                 movq rcx[RBP], RCX      ;
728                 movq rdx[RBP], RDX      ;
729                 movq rbp[RBP], RBP      ;
730                 movq rsi[RBP], RSI      ;
731                 movq rdi[RBP], RDI      ;
732                 movq r8 [RBP], R8       ;
733                 movq r9 [RBP], R9       ;
734                 movq r10[RBP], R10      ;
735                 movq r11[RBP], R11      ;
736                 movq r12[RBP], R12      ;
737                 movq r13[RBP], R13      ;
738                 movq r14[RBP], R14      ;
739                 movq r15[RBP], R15      ;
740                 movq  sp[RBP], RSP      ;
741             }
742         }
743         else
744         {
745             static assert( false, "Architecture not supported." );
746         }
747     }
748     else
749     {
750     asm
751     {
752         pushad              ;
753         mov sp[EBP],ESP     ;
754     }
755     }
756     result = fullcollect(sp);
757     version (GNU)
758     {
759         // nothing to do
760     }
761     else version(LDC)
762     {
763         // nothing to do
764     }
765     else
766     {
767     asm
768     {
769         popad               ;
770     }
771     }
772     return result;
773 }
774
775
776 /**
777  *
778  */
779 size_t fullcollect(void *stackTop)
780 {
781     debug(COLLECT_PRINTF) printf("Gcx.fullcollect()\n");
782
783     // we always need to stop the world to make threads save the CPU registers
784     // in the stack and prepare themselves for thread_scanAll()
785     thread_suspendAll();
786     gc.stats.world_stopped();
787
788     if (opts.options.fork) {
789         os.pid_t child_pid = os.fork();
790         assert (child_pid != -1); // don't accept errors in non-release mode
791         switch (child_pid) {
792         case -1: // if fork() fails, fallback to stop-the-world
793             opts.options.fork = false;
794             break;
795         case 0: // child process (i.e. the collectors mark phase)
796             mark(stackTop);
797             cstdlib.exit(0);
798             break; // bogus, will never reach here
799         default: // parent process (i.e. the mutator)
800             // start the world again and wait for the mark phase to finish
801             thread_resumeAll();
802             gc.stats.world_started();
803             int status = void;
804             os.pid_t wait_pid = os.waitpid(child_pid, &status, 0);
805             assert (wait_pid == child_pid);
806             return sweep();
807         }
808
809     }
810
811     // if we reach here, we are using the standard stop-the-world collection
812     mark(stackTop);
813     thread_resumeAll();
814     gc.stats.world_started();
815
816     return sweep();
817 }
818
819
820 /**
821  *
822  */
823 void mark(void *stackTop)
824 {
825     debug(COLLECT_PRINTF) printf("\tmark()\n");
826
827     gc.any_changes = false;
828     for (size_t n = 0; n < gc.pools.length; n++)
829     {
830         Pool* pool = gc.pools[n];
831         pool.mark.zero();
832         pool.scan.zero();
833         pool.freebits.zero();
834     }
835
836     // Mark each free entry, so it doesn't get scanned
837     for (size_t n = 0; n < B_PAGE; n++)
838     {
839         for (List *list = gc.free_list[n]; list; list = list.next)
840         {
841             Pool* pool = list.pool;
842             auto ptr = cast(byte*) list;
843             assert (pool);
844             assert (pool.baseAddr <= ptr);
845             assert (ptr < pool.topAddr);
846             size_t bit_i = cast(size_t)(ptr - pool.baseAddr) / 16;
847             pool.freebits.set(bit_i);
848         }
849     }
850
851     for (size_t n = 0; n < gc.pools.length; n++)
852     {
853         Pool* pool = gc.pools[n];
854         pool.mark.copy(&pool.freebits);
855     }
856
857     /// Marks a range of memory in conservative mode.
858     void mark_conservative_range(void* pbot, void* ptop)
859     {
860         mark_range(pbot, ptop, PointerMap.init.bits.ptr);
861     }
862
863     rt_scanStaticData(&mark_conservative_range);
864
865     if (!gc.no_stack)
866     {
867         // Scan stacks and registers for each paused thread
868         thread_scanAll(&mark_conservative_range, stackTop);
869     }
870
871     // Scan roots
872     debug(COLLECT_PRINTF) printf("scan roots[]\n");
873     mark_conservative_range(gc.roots.ptr, gc.roots.ptr + gc.roots.length);
874
875     // Scan ranges
876     debug(COLLECT_PRINTF) printf("scan ranges[]\n");
877     for (size_t n = 0; n < gc.ranges.length; n++)
878     {
879         debug(COLLECT_PRINTF) printf("\t%x .. %x\n", gc.ranges[n].pbot, gc.ranges[n].ptop);
880         mark_conservative_range(gc.ranges[n].pbot, gc.ranges[n].ptop);
881     }
882
883     debug(COLLECT_PRINTF) printf("\tscan heap\n");
884     while (gc.any_changes)
885     {
886         gc.any_changes = false;
887         for (size_t n = 0; n < gc.pools.length; n++)
888         {
889             uint *bbase;
890             uint *b;
891             uint *btop;
892
893             Pool* pool = gc.pools[n];
894
895             bbase = pool.scan.base();
896             btop = bbase + pool.scan.nwords;
897             for (b = bbase; b < btop;)
898             {
899                 Bins   bin;
900                 size_t pn;
901                 size_t u;
902                 size_t bitm;
903                 byte*  o;
904
905                 bitm = *b;
906                 if (!bitm)
907                 {
908                     b++;
909                     continue;
910                 }
911                 *b = 0;
912
913                 o = pool.baseAddr + (b - bbase) * 32 * 16;
914                 if (!(bitm & 0xFFFF))
915                 {
916                     bitm >>= 16;
917                     o += 16 * 16;
918                 }
919                 for (; bitm; o += 16, bitm >>= 1)
920                 {
921                     if (!(bitm & 1))
922                         continue;
923
924                     pn = cast(size_t)(o - pool.baseAddr) / PAGESIZE;
925                     bin = cast(Bins)pool.pagetable[pn];
926                     if (bin < B_PAGE) {
927                         if (opts.options.conservative)
928                             mark_conservative_range(o, o + binsize[bin]);
929                         else {
930                             auto end_of_blk = cast(size_t**)(o +
931                                     binsize[bin] - size_t.sizeof);
932                             size_t* pm_bitmask = *end_of_blk;
933                             mark_range(o, end_of_blk, pm_bitmask);
934                         }
935                     }
936                     else if (bin == B_PAGE || bin == B_PAGEPLUS)
937                     {
938                         if (bin == B_PAGEPLUS)
939                         {
940                             while (pool.pagetable[pn - 1] != B_PAGE)
941                                 pn--;
942                         }
943                         u = 1;
944                         while (pn + u < pool.npages &&
945                                 pool.pagetable[pn + u] == B_PAGEPLUS)
946                             u++;
947
948                         size_t blk_size = u * PAGESIZE;
949                         if (opts.options.conservative)
950                             mark_conservative_range(o, o + blk_size);
951                         else {
952                             auto end_of_blk = cast(size_t**)(o + blk_size -
953                                     size_t.sizeof);
954                             size_t* pm_bitmask = *end_of_blk;
955                             mark_range(o, end_of_blk, pm_bitmask);
956                         }
957                     }
958                 }
959             }
960         }
961     }
962 }
963
964
965 /**
966  *
967  */
968 size_t sweep()
969 {
970     // Free up everything not marked
971     debug(COLLECT_PRINTF) printf("\tsweep\n");
972     gc.p_cache = null;
973     gc.size_cache = 0;
974     size_t freedpages = 0;
975     size_t freed = 0;
976     for (size_t n = 0; n < gc.pools.length; n++)
977     {
978         Pool* pool = gc.pools[n];
979         pool.clear_cache();
980         uint*  bbase = pool.mark.base();
981         size_t pn;
982         for (pn = 0; pn < pool.npages; pn++, bbase += PAGESIZE / (32 * 16))
983         {
984             Bins bin = cast(Bins)pool.pagetable[pn];
985
986             if (bin < B_PAGE)
987             {
988                 auto size = binsize[bin];
989                 byte* p = pool.baseAddr + pn * PAGESIZE;
990                 byte* ptop = p + PAGESIZE;
991                 size_t bit_i = pn * (PAGESIZE/16);
992                 size_t bit_stride = size / 16;
993
994 version(none) // BUG: doesn't work because freebits() must also be cleared
995 {
996                 // If free'd entire page
997                 if (bbase[0] == 0 && bbase[1] == 0 && bbase[2] == 0 &&
998                         bbase[3] == 0 && bbase[4] == 0 && bbase[5] == 0 &&
999                         bbase[6] == 0 && bbase[7] == 0)
1000                 {
1001                     for (; p < ptop; p += size, bit_i += bit_stride)
1002                     {
1003                         if (pool.finals.nbits && pool.finals.testClear(bit_i)) {
1004                             if (opts.options.sentinel)
1005                                 rt_finalize(sentinel_add(p), false/*gc.no_stack > 0*/);
1006                             else
1007                                 rt_finalize(p, false/*gc.no_stack > 0*/);
1008                         }
1009                         clrAttr(pool, bit_i, BlkAttr.ALL_BITS);
1010
1011                         if (opts.options.mem_stomp)
1012                             memset(p, 0xF3, size);
1013                     }
1014                     pool.pagetable[pn] = B_FREE;
1015                     freed += PAGESIZE;
1016                     continue;
1017                 }
1018 }
1019                 for (; p < ptop; p += size, bit_i += bit_stride)
1020                 {
1021                     if (!pool.mark.test(bit_i))
1022                     {
1023                         if (opts.options.sentinel)
1024                             sentinel_Invariant(sentinel_add(p));
1025
1026                         pool.freebits.set(bit_i);
1027                         if (pool.finals.nbits && pool.finals.testClear(bit_i)) {
1028                             if (opts.options.sentinel)
1029                                 rt_finalize(sentinel_add(p), false/*gc.no_stack > 0*/);
1030                             else
1031                                 rt_finalize(p, false/*gc.no_stack > 0*/);
1032                         }
1033                         clrAttr(pool, bit_i, BlkAttr.ALL_BITS);
1034
1035                         if (opts.options.mem_stomp)
1036                             memset(p, 0xF3, size);
1037
1038                         freed += size;
1039                     }
1040                 }
1041             }
1042             else if (bin == B_PAGE)
1043             {
1044                 size_t bit_i = pn * (PAGESIZE / 16);
1045                 if (!pool.mark.test(bit_i))
1046                 {
1047                     byte *p = pool.baseAddr + pn * PAGESIZE;
1048                     if (opts.options.sentinel)
1049                         sentinel_Invariant(sentinel_add(p));
1050                     if (pool.finals.nbits && pool.finals.testClear(bit_i)) {
1051                         if (opts.options.sentinel)
1052                             rt_finalize(sentinel_add(p), false/*gc.no_stack > 0*/);
1053                         else
1054                             rt_finalize(p, false/*gc.no_stack > 0*/);
1055                     }
1056                     clrAttr(pool, bit_i, BlkAttr.ALL_BITS);
1057
1058                     debug(COLLECT_PRINTF) printf("\tcollecting big %x\n", p);
1059                     pool.pagetable[pn] = B_FREE;
1060                     freedpages++;
1061                     if (opts.options.mem_stomp)
1062                         memset(p, 0xF3, PAGESIZE);
1063                     while (pn + 1 < pool.npages && pool.pagetable[pn + 1] == B_PAGEPLUS)
1064                     {
1065                         pn++;
1066                         pool.pagetable[pn] = B_FREE;
1067                         freedpages++;
1068
1069                         if (opts.options.mem_stomp)
1070                         {
1071                             p += PAGESIZE;
1072                             memset(p, 0xF3, PAGESIZE);
1073                         }
1074                     }
1075                 }
1076             }
1077         }
1078     }
1079
1080     // Zero buckets
1081     gc.free_list[] = null;
1082
1083     // Free complete pages, rebuild free list
1084     debug(COLLECT_PRINTF) printf("\tfree complete pages\n");
1085     size_t recoveredpages = 0;
1086     for (size_t n = 0; n < gc.pools.length; n++)
1087     {
1088         Pool* pool = gc.pools[n];
1089         for (size_t pn = 0; pn < pool.npages; pn++)
1090         {
1091             Bins   bin = cast(Bins)pool.pagetable[pn];
1092             size_t bit_i;
1093             size_t u;
1094
1095             if (bin < B_PAGE)
1096             {
1097                 size_t size = binsize[bin];
1098                 size_t bit_stride = size / 16;
1099                 size_t bit_base = pn * (PAGESIZE / 16);
1100                 size_t bit_top = bit_base + (PAGESIZE / 16);
1101                 byte*  p;
1102
1103                 bit_i = bit_base;
1104                 for (; bit_i < bit_top; bit_i += bit_stride)
1105                 {
1106                     if (!pool.freebits.test(bit_i))
1107                         goto Lnotfree;
1108                 }
1109                 pool.pagetable[pn] = B_FREE;
1110                 recoveredpages++;
1111                 continue;
1112
1113              Lnotfree:
1114                 p = pool.baseAddr + pn * PAGESIZE;
1115                 for (u = 0; u < PAGESIZE; u += size)
1116                 {
1117                     bit_i = bit_base + u / 16;
1118                     if (pool.freebits.test(bit_i))
1119                     {
1120                         assert ((p+u) >= pool.baseAddr);
1121                         assert ((p+u) < pool.topAddr);
1122                         List* list = cast(List*) (p + u);
1123                         // avoid unnecesary writes (it really saves time)
1124                         if (list.next != gc.free_list[bin])
1125                             list.next = gc.free_list[bin];
1126                         if (list.pool != pool)
1127                             list.pool = pool;
1128                         gc.free_list[bin] = list;
1129                     }
1130                 }
1131             }
1132         }
1133     }
1134
1135     debug(COLLECT_PRINTF) printf("recovered pages = %d\n", recoveredpages);
1136     debug(COLLECT_PRINTF) printf("\tfree'd %u bytes, %u pages from %u pools\n", freed, freedpages, gc.pools.length);
1137
1138     return freedpages + recoveredpages;
1139 }
1140
1141
1142 /**
1143  *
1144  */
1145 uint getAttr(Pool* pool, size_t bit_i)
1146 in
1147 {
1148     assert( pool );
1149 }
1150 body
1151 {
1152     uint attrs;
1153
1154     if (pool.finals.nbits &&
1155         pool.finals.test(bit_i))
1156         attrs |= BlkAttr.FINALIZE;
1157     if (pool.noscan.test(bit_i))
1158         attrs |= BlkAttr.NO_SCAN;
1159 //        if (pool.nomove.nbits &&
1160 //            pool.nomove.test(bit_i))
1161 //            attrs |= BlkAttr.NO_MOVE;
1162     return attrs;
1163 }
1164
1165
1166 /**
1167  *
1168  */
1169 void setAttr(Pool* pool, size_t bit_i, uint mask)
1170 in
1171 {
1172     assert( pool );
1173 }
1174 body
1175 {
1176     if (mask & BlkAttr.FINALIZE)
1177     {
1178         if (!pool.finals.nbits)
1179             pool.finals.alloc(pool.mark.nbits);
1180         pool.finals.set(bit_i);
1181     }
1182     if (mask & BlkAttr.NO_SCAN)
1183     {
1184         pool.noscan.set(bit_i);
1185     }
1186 //        if (mask & BlkAttr.NO_MOVE)
1187 //        {
1188 //            if (!pool.nomove.nbits)
1189 //                pool.nomove.alloc(pool.mark.nbits);
1190 //            pool.nomove.set(bit_i);
1191 //        }
1192 }
1193
1194
1195 /**
1196  *
1197  */
1198 void clrAttr(Pool* pool, size_t bit_i, uint mask)
1199 in
1200 {
1201     assert( pool );
1202 }
1203 body
1204 {
1205     if (mask & BlkAttr.FINALIZE && pool.finals.nbits)
1206         pool.finals.clear(bit_i);
1207     if (mask & BlkAttr.NO_SCAN)
1208         pool.noscan.clear(bit_i);
1209 //        if (mask & BlkAttr.NO_MOVE && pool.nomove.nbits)
1210 //            pool.nomove.clear(bit_i);
1211 }
1212
1213
1214
1215 void initialize()
1216 {
1217     int dummy;
1218     gc.stack_bottom = cast(char*)&dummy;
1219     opts.parse(cstdlib.getenv("D_GC_OPTS"));
1220     // If we are going to fork, make sure we have the needed OS support
1221     if (opts.options.fork)
1222         opts.options.fork = os.HAVE_SHARED && os.HAVE_FORK;
1223     gc.lock = GCLock.classinfo;
1224     gc.inited = 1;
1225     setStackBottom(rt_stackBottom());
1226     gc.stats = Stats(gc);
1227 }
1228
1229
1230 //
1231 //
1232 //
1233 private void *malloc(size_t size, uint attrs, size_t* pm_bitmask)
1234 {
1235     assert(size != 0);
1236
1237     gc.stats.malloc_started(size, attrs, pm_bitmask);
1238     scope (exit)
1239         gc.stats.malloc_finished(p);
1240
1241     void *p = null;
1242     Bins bin;
1243
1244     if (opts.options.sentinel)
1245         size += SENTINEL_EXTRA;
1246
1247     bool has_pm = has_pointermap(attrs);
1248     if (has_pm)
1249         size += size_t.sizeof;
1250
1251     // Compute size bin
1252     // Cache previous binsize lookup - Dave Fladebo.
1253     static size_t lastsize = -1;
1254     static Bins lastbin;
1255     if (size == lastsize)
1256         bin = lastbin;
1257     else
1258     {
1259         bin = findBin(size);
1260         lastsize = size;
1261         lastbin = bin;
1262     }
1263
1264     Pool* pool = void;
1265     size_t capacity = void; // to figure out where to store the bitmask
1266     if (bin < B_PAGE)
1267     {
1268         p = gc.free_list[bin];
1269         if (p is null)
1270         {
1271             if (!allocPage(bin) && !gc.disabled)   // try to find a new page
1272             {
1273                 if (!thread_needLock())
1274                 {
1275                     /* Then we haven't locked it yet. Be sure
1276                      * and gc.lock for a collection, since a finalizer
1277                      * may start a new thread.
1278                      */
1279                     synchronized (gc.lock)
1280                     {
1281                         fullcollectshell();
1282                     }
1283                 }
1284                 else if (!fullcollectshell())       // collect to find a new page
1285                 {
1286                     //newPool(1);
1287                 }
1288             }
1289             if (!gc.free_list[bin] && !allocPage(bin))
1290             {
1291                 newPool(1);         // allocate new pool to find a new page
1292                 // TODO: hint allocPage() to use the pool we just created
1293                 int result = allocPage(bin);
1294                 if (!result)
1295                     onOutOfMemoryError();
1296             }
1297             p = gc.free_list[bin];
1298         }
1299         capacity = binsize[bin];
1300
1301         // Return next item from free list
1302         List* list = cast(List*) p;
1303         assert ((cast(byte*)list) >= list.pool.baseAddr);
1304         assert ((cast(byte*)list) < list.pool.topAddr);
1305         gc.free_list[bin] = list.next;
1306         pool = list.pool;
1307         if (!(attrs & BlkAttr.NO_SCAN))
1308             memset(p + size, 0, capacity - size);
1309         if (opts.options.mem_stomp)
1310             memset(p, 0xF0, size);
1311     }
1312     else
1313     {
1314         p = bigAlloc(size, pool);
1315         if (!p)
1316             onOutOfMemoryError();
1317         assert (pool !is null);
1318         // Round the size up to the number of pages needed to store it
1319         size_t npages = (size + PAGESIZE - 1) / PAGESIZE;
1320         capacity = npages * PAGESIZE;
1321     }
1322
1323     // Store the bit mask AFTER SENTINEL_POST
1324     // TODO: store it BEFORE, so the bitmask is protected too
1325     if (has_pm) {
1326         auto end_of_blk = cast(size_t**)(p + capacity - size_t.sizeof);
1327         *end_of_blk = pm_bitmask;
1328         size -= size_t.sizeof;
1329     }
1330
1331     if (opts.options.sentinel) {
1332         size -= SENTINEL_EXTRA;
1333         p = sentinel_add(p);
1334         sentinel_init(p, size);
1335     }
1336
1337     if (attrs)
1338         setAttr(pool, cast(size_t)(p - pool.baseAddr) / 16, attrs);
1339
1340     return p;
1341 }
1342
1343
1344 //
1345 //
1346 //
1347 private void *calloc(size_t size, uint attrs, size_t* pm_bitmask)
1348 {
1349     assert(size != 0);
1350
1351     void *p = malloc(size, attrs, pm_bitmask);
1352     memset(p, 0, size);
1353     return p;
1354 }
1355
1356
1357 //
1358 //
1359 //
1360 private void *realloc(void *p, size_t size, uint attrs,
1361         size_t* pm_bitmask)
1362 {
1363     if (!size)
1364     {
1365         if (p)
1366         {
1367             free(p);
1368             p = null;
1369         }
1370     }
1371     else if (!p)
1372     {
1373         p = malloc(size, attrs, pm_bitmask);
1374     }
1375     else
1376     {
1377         Pool* pool = findPool(p);
1378         if (pool is null)
1379             return null;
1380
1381         // Set or retrieve attributes as appropriate
1382         auto bit_i = cast(size_t)(p - pool.baseAddr) / 16;
1383         if (attrs) {
1384             clrAttr(pool, bit_i, BlkAttr.ALL_BITS);
1385             setAttr(pool, bit_i, attrs);
1386         }
1387         else
1388             attrs = getAttr(pool, bit_i);
1389
1390         void* blk_base_addr = pool.findBase(p);
1391         size_t blk_size = pool.findSize(p);
1392         bool has_pm = has_pointermap(attrs);
1393         size_t pm_bitmask_size = 0;
1394         if (has_pm) {
1395             pm_bitmask_size = size_t.sizeof;
1396             // Retrieve pointer map bit mask if appropriate
1397             if (pm_bitmask is null) {
1398                 auto end_of_blk = cast(size_t**)(blk_base_addr +
1399                         blk_size - size_t.sizeof);
1400                 pm_bitmask = *end_of_blk;
1401             }
1402         }
1403
1404         if (opts.options.sentinel)
1405         {
1406             sentinel_Invariant(p);
1407             size_t sentinel_stored_size = *sentinel_size(p);
1408             if (sentinel_stored_size != size)
1409             {
1410                 void* p2 = malloc(size, attrs, pm_bitmask);
1411                 if (sentinel_stored_size < size)
1412                     size = sentinel_stored_size;
1413                 cstring.memcpy(p2, p, size);
1414                 p = p2;
1415             }
1416         }
1417         else
1418         {
1419             size += pm_bitmask_size;
1420             if (blk_size >= PAGESIZE && size >= PAGESIZE)
1421             {
1422                 auto psz = blk_size / PAGESIZE;
1423                 auto newsz = (size + PAGESIZE - 1) / PAGESIZE;
1424                 if (newsz == psz)
1425                     return p;
1426
1427                 auto pagenum = (p - pool.baseAddr) / PAGESIZE;
1428
1429                 if (newsz < psz)
1430                 {
1431                     // Shrink in place
1432                     if (opts.options.mem_stomp)
1433                         memset(p + size - pm_bitmask_size, 0xF2,
1434                                 blk_size - size - pm_bitmask_size);
1435                     pool.freePages(pagenum + newsz, psz - newsz);
1436                     auto new_blk_size = (PAGESIZE * newsz);
1437                     // update the size cache, assuming that is very likely the
1438                     // size of this block will be queried in the near future
1439                     pool.update_cache(p, new_blk_size);
1440                     if (has_pm) {
1441                         auto end_of_blk = cast(size_t**)(blk_base_addr +
1442                                 new_blk_size - pm_bitmask_size);
1443                         *end_of_blk = pm_bitmask;
1444                     }
1445                     return p;
1446                 }
1447                 else if (pagenum + newsz <= pool.npages)
1448                 {
1449                     // Attempt to expand in place
1450                     for (size_t i = pagenum + psz; 1;)
1451                     {
1452                         if (i == pagenum + newsz)
1453                         {
1454                             if (opts.options.mem_stomp)
1455                                 memset(p + blk_size - pm_bitmask_size,
1456                                         0xF0, size - blk_size
1457                                         - pm_bitmask_size);
1458                             memset(pool.pagetable + pagenum +
1459                                     psz, B_PAGEPLUS, newsz - psz);
1460                             auto new_blk_size = (PAGESIZE * newsz);
1461                             // update the size cache, assuming that is very
1462                             // likely the size of this block will be queried in
1463                             // the near future
1464                             pool.update_cache(p, new_blk_size);
1465                             if (has_pm) {
1466                                 auto end_of_blk = cast(size_t**)(
1467                                         blk_base_addr + new_blk_size -
1468                                         pm_bitmask_size);
1469                                 *end_of_blk = pm_bitmask;
1470                             }
1471                             return p;
1472                         }
1473                         if (i == pool.npages)
1474                         {
1475                             break;
1476                         }
1477                         if (pool.pagetable[i] != B_FREE)
1478                             break;
1479                         i++;
1480                     }
1481                 }
1482             }
1483             // if new size is bigger or less than half
1484             if (blk_size < size || blk_size > size * 2)
1485             {
1486                 size -= pm_bitmask_size;
1487                 blk_size -= pm_bitmask_size;
1488                 void* p2 = malloc(size, attrs, pm_bitmask);
1489                 if (blk_size < size)
1490                     size = blk_size;
1491                 cstring.memcpy(p2, p, size);
1492                 p = p2;
1493             }
1494         }
1495     }
1496     return p;
1497 }
1498
1499
1500 /**
1501  * Attempt to in-place enlarge the memory block pointed to by p by at least
1502  * min_size beyond its current capacity, up to a maximum of max_size.  This
1503  * does not attempt to move the memory block (like realloc() does).
1504  *
1505  * Returns:
1506  *  0 if could not extend p,
1507  *  total size of entire memory block if successful.
1508  */
1509 private size_t extend(void* p, size_t minsize, size_t maxsize)
1510 in
1511 {
1512     assert( minsize <= maxsize );
1513 }
1514 body
1515 {
1516     if (opts.options.sentinel)
1517         return 0;
1518
1519     Pool* pool = findPool(p);
1520     if (pool is null)
1521         return 0;
1522
1523     // Retrieve attributes
1524     auto bit_i = cast(size_t)(p - pool.baseAddr) / 16;
1525     uint attrs = getAttr(pool, bit_i);
1526
1527     void* blk_base_addr = pool.findBase(p);
1528     size_t blk_size = pool.findSize(p);
1529     bool has_pm = has_pointermap(attrs);
1530     size_t* pm_bitmask = null;
1531     size_t pm_bitmask_size = 0;
1532     if (has_pm) {
1533         pm_bitmask_size = size_t.sizeof;
1534         // Retrieve pointer map bit mask
1535         auto end_of_blk = cast(size_t**)(blk_base_addr +
1536                 blk_size - size_t.sizeof);
1537         pm_bitmask = *end_of_blk;
1538
1539         minsize += size_t.sizeof;
1540         maxsize += size_t.sizeof;
1541     }
1542
1543     if (blk_size < PAGESIZE)
1544         return 0; // cannot extend buckets
1545
1546     auto psz = blk_size / PAGESIZE;
1547     auto minsz = (minsize + PAGESIZE - 1) / PAGESIZE;
1548     auto maxsz = (maxsize + PAGESIZE - 1) / PAGESIZE;
1549
1550     auto pagenum = (p - pool.baseAddr) / PAGESIZE;
1551
1552     size_t sz;
1553     for (sz = 0; sz < maxsz; sz++)
1554     {
1555         auto i = pagenum + psz + sz;
1556         if (i == pool.npages)
1557             break;
1558         if (pool.pagetable[i] != B_FREE)
1559         {
1560             if (sz < minsz)
1561                 return 0;
1562             break;
1563         }
1564     }
1565     if (sz < minsz)
1566         return 0;
1567
1568     size_t new_size = (psz + sz) * PAGESIZE;
1569
1570     if (opts.options.mem_stomp)
1571         memset(p + blk_size - pm_bitmask_size, 0xF0,
1572                 new_size - blk_size - pm_bitmask_size);
1573     memset(pool.pagetable + pagenum + psz, B_PAGEPLUS, sz);
1574     gc.p_cache = null;
1575     gc.size_cache = 0;
1576     // update the size cache, assuming that is very likely the size of this
1577     // block will be queried in the near future
1578     pool.update_cache(p, new_size);
1579
1580     if (has_pm) {
1581         new_size -= size_t.sizeof;
1582         auto end_of_blk = cast(size_t**)(blk_base_addr + new_size);
1583         *end_of_blk = pm_bitmask;
1584     }
1585     return new_size;
1586 }
1587
1588
1589 //
1590 //
1591 //
1592 private void free(void *p)
1593 {
1594     assert (p);
1595
1596     Pool*  pool;
1597     size_t pagenum;
1598     Bins   bin;
1599     size_t bit_i;
1600
1601     // Find which page it is in
1602     pool = findPool(p);
1603     if (!pool)                              // if not one of ours
1604         return;                             // ignore
1605     if (opts.options.sentinel) {
1606         sentinel_Invariant(p);
1607         p = sentinel_sub(p);
1608     }
1609     pagenum = cast(size_t)(p - pool.baseAddr) / PAGESIZE;
1610     bit_i = cast(size_t)(p - pool.baseAddr) / 16;
1611     clrAttr(pool, bit_i, BlkAttr.ALL_BITS);
1612
1613     bin = cast(Bins)pool.pagetable[pagenum];
1614     if (bin == B_PAGE)              // if large alloc
1615     {
1616         // Free pages
1617         size_t npages = 1;
1618         size_t n = pagenum;
1619         while (++n < pool.npages && pool.pagetable[n] == B_PAGEPLUS)
1620             npages++;
1621         if (opts.options.mem_stomp)
1622             memset(p, 0xF2, npages * PAGESIZE);
1623         pool.freePages(pagenum, npages);
1624         // just in case we were caching this pointer
1625         pool.clear_cache(p);
1626     }
1627     else
1628     {
1629         // Add to free list
1630         List* list = cast(List*) p;
1631
1632         if (opts.options.mem_stomp)
1633             memset(p, 0xF2, binsize[bin]);
1634
1635         list.next = gc.free_list[bin];
1636         list.pool = pool;
1637         gc.free_list[bin] = list;
1638     }
1639 }
1640
1641
1642 /**
1643  * Determine the allocated size of pointer p.  If p is an interior pointer
1644  * or not a gc allocated pointer, return 0.
1645  */
1646 private size_t sizeOf(void *p)
1647 {
1648     assert (p);
1649
1650     if (opts.options.sentinel)
1651         p = sentinel_sub(p);
1652
1653     Pool* pool = findPool(p);
1654     if (pool is null)
1655         return 0;
1656
1657     auto biti = cast(size_t)(p - pool.baseAddr) / 16;
1658     uint attrs = getAttr(pool, biti);
1659
1660     size_t size = pool.findSize(p);
1661     size_t pm_bitmask_size = 0;
1662     if (has_pointermap(attrs))
1663         pm_bitmask_size = size_t.sizeof;
1664
1665     if (opts.options.sentinel) {
1666         // Check for interior pointer
1667         // This depends on:
1668         // 1) size is a power of 2 for less than PAGESIZE values
1669         // 2) base of memory pool is aligned on PAGESIZE boundary
1670         if (cast(size_t)p & (size - 1) & (PAGESIZE - 1))
1671             return 0;
1672         return size - SENTINEL_EXTRA - pm_bitmask_size;
1673     }
1674     else {
1675         if (p == gc.p_cache)
1676             return gc.size_cache;
1677
1678         // Check for interior pointer
1679         // This depends on:
1680         // 1) size is a power of 2 for less than PAGESIZE values
1681         // 2) base of memory pool is aligned on PAGESIZE boundary
1682         if (cast(size_t)p & (size - 1) & (PAGESIZE - 1))
1683             return 0;
1684
1685         gc.p_cache = p;
1686         gc.size_cache = size - pm_bitmask_size;
1687
1688         return gc.size_cache;
1689     }
1690 }
1691
1692
1693 /**
1694  * Verify that pointer p:
1695  *  1) belongs to this memory pool
1696  *  2) points to the start of an allocated piece of memory
1697  *  3) is not on a free list
1698  */
1699 private void checkNoSync(void *p)
1700 {
1701     assert(p);
1702
1703     if (opts.options.sentinel)
1704         sentinel_Invariant(p);
1705     debug (PTRCHECK)
1706     {
1707         Pool*  pool;
1708         size_t pagenum;
1709         Bins   bin;
1710         size_t size;
1711
1712         if (opts.options.sentinel)
1713             p = sentinel_sub(p);
1714         pool = findPool(p);
1715         assert(pool);
1716         pagenum = cast(size_t)(p - pool.baseAddr) / PAGESIZE;
1717         bin = cast(Bins)pool.pagetable[pagenum];
1718         assert(bin <= B_PAGE);
1719         size = binsize[bin];
1720         assert((cast(size_t)p & (size - 1)) == 0);
1721
1722         debug (PTRCHECK2)
1723         {
1724             if (bin < B_PAGE)
1725             {
1726                 // Check that p is not on a free list
1727                 for (List* list = gc.free_list[bin]; list; list = list.next)
1728                 {
1729                     assert(cast(void*)list != p);
1730                 }
1731             }
1732         }
1733     }
1734 }
1735
1736
1737 //
1738 //
1739 //
1740 private void setStackBottom(void *p)
1741 {
1742     version (STACKGROWSDOWN)
1743     {
1744         //p = (void *)((uint *)p + 4);
1745         if (p > gc.stack_bottom)
1746         {
1747             gc.stack_bottom = p;
1748         }
1749     }
1750     else
1751     {
1752         //p = (void *)((uint *)p - 4);
1753         if (p < gc.stack_bottom)
1754         {
1755             gc.stack_bottom = cast(char*)p;
1756         }
1757     }
1758 }
1759
1760
1761 /**
1762  * Retrieve statistics about garbage collection.
1763  * Useful for debugging and tuning.
1764  */
1765 private GCStats getStats()
1766 {
1767     GCStats stats;
1768     size_t psize = 0;
1769     size_t usize = 0;
1770     size_t flsize = 0;
1771
1772     size_t n;
1773     size_t bsize = 0;
1774
1775     for (n = 0; n < gc.pools.length; n++)
1776     {
1777         Pool* pool = gc.pools[n];
1778         psize += pool.npages * PAGESIZE;
1779         for (size_t j = 0; j < pool.npages; j++)
1780         {
1781             Bins bin = cast(Bins)pool.pagetable[j];
1782             if (bin == B_FREE)
1783                 stats.freeblocks++;
1784             else if (bin == B_PAGE)
1785                 stats.pageblocks++;
1786             else if (bin < B_PAGE)
1787                 bsize += PAGESIZE;
1788         }
1789     }
1790
1791     for (n = 0; n < B_PAGE; n++)
1792     {
1793         for (List* list = gc.free_list[n]; list; list = list.next)
1794             flsize += binsize[n];
1795     }
1796
1797     usize = bsize - flsize;
1798
1799     stats.poolsize = psize;
1800     stats.usedsize = bsize - flsize;
1801     stats.freelistsize = flsize;
1802     return stats;
1803 }
1804
1805 /******************* weak-reference support *********************/
1806
1807 private struct WeakPointer
1808 {
1809     Object reference;
1810
1811     void ondestroy(Object r)
1812     {
1813         assert(r is reference);
1814         // lock for memory consistency (parallel readers)
1815         // also ensures that weakpointerDestroy can be called while another
1816         // thread is freeing the reference with "delete"
1817         return locked!(void, () {
1818             reference = null;
1819         })();
1820     }
1821 }
1822
1823 /**
1824  * Create a weak pointer to the given object.
1825  * Returns a pointer to an opaque struct allocated in C memory.
1826  */
1827 void* weakpointerCreate( Object r )
1828 {
1829     if (r)
1830     {
1831         // must be allocated in C memory
1832         // 1. to hide the reference from the GC
1833         // 2. the GC doesn't scan delegates added by rt_attachDisposeEvent
1834         //    for references
1835         auto wp = cast(WeakPointer*)(cstdlib.malloc(WeakPointer.sizeof));
1836         if (!wp)
1837             onOutOfMemoryError();
1838         wp.reference = r;
1839         rt_attachDisposeEvent(r, &wp.ondestroy);
1840         return wp;
1841     }
1842     return null;
1843 }
1844
1845 /**
1846  * Destroy a weak pointer returned by weakpointerCreate().
1847  * If null is passed, nothing happens.
1848  */
1849 void weakpointerDestroy( void* p )
1850 {
1851     if (p)
1852     {
1853         auto wp = cast(WeakPointer*)p;
1854         // must be extra careful about the GC or parallel threads
1855         // finalizing the reference at the same time
1856         return locked!(void, () {
1857             if (wp.reference)
1858                 rt_detachDisposeEvent(wp.reference, &wp.ondestroy);
1859         })();
1860         cstdlib.free(wp);
1861     }
1862 }
1863
1864 /**
1865  * Query a weak pointer and return either the object passed to
1866  * weakpointerCreate, or null if it was free'd in the meantime.
1867  * If null is passed, null is returned.
1868  */
1869 Object weakpointerGet( void* p )
1870 {
1871     if (p)
1872     {
1873         // NOTE: could avoid the lock by using Fawzi style GC counters but
1874         // that'd require core.sync.Atomic and lots of care about memory
1875         // consistency it's an optional optimization see
1876         // http://dsource.org/projects/tango/browser/trunk/user/tango/core/Lifetime.d?rev=5100#L158
1877         return locked!(Object, () {
1878             return (cast(WeakPointer*)p).reference;
1879         })();
1880         }
1881 }
1882
1883
1884 /* ============================ Pool  =============================== */
1885
1886
1887 struct Pool
1888 {
1889     byte* baseAddr;
1890     byte* topAddr;
1891     GCBits mark;     // entries already scanned, or should not be scanned
1892     GCBits scan;     // entries that need to be scanned
1893     GCBits freebits; // entries that are on the free list
1894     GCBits finals;   // entries that need finalizer run on them
1895     GCBits noscan;   // entries that should not be scanned
1896
1897     size_t npages;
1898     ubyte* pagetable;
1899
1900     /// Cache for findSize()
1901     size_t cached_size;
1902     void* cached_ptr;
1903
1904     void clear_cache(void* ptr = null)
1905     {
1906         if (ptr is null || ptr is this.cached_ptr) {
1907             this.cached_ptr = null;
1908             this.cached_size = 0;
1909         }
1910     }
1911
1912     void update_cache(void* ptr, size_t size)
1913     {
1914         this.cached_ptr = ptr;
1915         this.cached_size = size;
1916     }
1917
1918     void initialize(size_t npages)
1919     {
1920         size_t poolsize = npages * PAGESIZE;
1921         assert(poolsize >= POOLSIZE);
1922         baseAddr = cast(byte *) os.alloc(poolsize);
1923
1924         // Some of the code depends on page alignment of memory pools
1925         assert((cast(size_t)baseAddr & (PAGESIZE - 1)) == 0);
1926
1927         if (!baseAddr)
1928         {
1929             npages = 0;
1930             poolsize = 0;
1931         }
1932         topAddr = baseAddr + poolsize;
1933
1934         size_t nbits = cast(size_t)poolsize / 16;
1935
1936         // if the GC will run in parallel in a fork()ed process, we need to
1937         // share the mark bits
1938         os.Vis vis = os.Vis.PRIV;
1939         if (opts.options.fork)
1940             vis = os.Vis.SHARED;
1941         mark.alloc(nbits, vis); // shared between mark and sweep
1942         freebits.alloc(nbits, vis); // ditto
1943         scan.alloc(nbits); // only used in the mark phase
1944         finals.alloc(nbits); // mark phase *MUST* have a snapshot
1945         noscan.alloc(nbits); // ditto
1946
1947         pagetable = cast(ubyte*) cstdlib.malloc(npages);
1948         if (!pagetable)
1949             onOutOfMemoryError();
1950         memset(pagetable, B_FREE, npages);
1951
1952         this.npages = npages;
1953     }
1954
1955
1956     void Dtor()
1957     {
1958         if (baseAddr)
1959         {
1960             int result;
1961
1962             if (npages)
1963             {
1964                 result = os.dealloc(baseAddr, npages * PAGESIZE);
1965                 assert(result);
1966                 npages = 0;
1967             }
1968
1969             baseAddr = null;
1970             topAddr = null;
1971         }
1972         // See Gcx.Dtor() for the rationale of the null check.
1973         if (pagetable)
1974             cstdlib.free(pagetable);
1975
1976         os.Vis vis = os.Vis.PRIV;
1977         if (opts.options.fork)
1978             vis = os.Vis.SHARED;
1979         mark.Dtor(vis);
1980         freebits.Dtor(vis);
1981         scan.Dtor();
1982         finals.Dtor();
1983         noscan.Dtor();
1984     }
1985
1986
1987     bool Invariant()
1988     {
1989         return true;
1990     }
1991
1992
1993     invariant
1994     {
1995         //mark.Invariant();
1996         //scan.Invariant();
1997         //freebits.Invariant();
1998         //finals.Invariant();
1999         //noscan.Invariant();
2000
2001         if (baseAddr)
2002         {
2003             //if (baseAddr + npages * PAGESIZE != topAddr)
2004                 //printf("baseAddr = %p, npages = %d, topAddr = %p\n", baseAddr, npages, topAddr);
2005             assert(baseAddr + npages * PAGESIZE == topAddr);
2006         }
2007
2008         for (size_t i = 0; i < npages; i++)
2009         {
2010             Bins bin = cast(Bins)pagetable[i];
2011             assert(bin < B_MAX);
2012         }
2013     }
2014
2015
2016     /**
2017      * Allocate n pages from Pool.
2018      * Returns OPFAIL on failure.
2019      */
2020     size_t allocPages(size_t n)
2021     {
2022         size_t i;
2023         size_t n2;
2024
2025         n2 = n;
2026         for (i = 0; i < npages; i++)
2027         {
2028             if (pagetable[i] == B_FREE)
2029             {
2030                 if (--n2 == 0)
2031                     return i - n + 1;
2032             }
2033             else
2034                 n2 = n;
2035         }
2036         return OPFAIL;
2037     }
2038
2039
2040     /**
2041      * Free npages pages starting with pagenum.
2042      */
2043     void freePages(size_t pagenum, size_t npages)
2044     {
2045         memset(&pagetable[pagenum], B_FREE, npages);
2046     }
2047
2048
2049     /**
2050      * Find base address of block containing pointer p.
2051      * Returns null if the pointer doesn't belong to this pool
2052      */
2053     void* findBase(void *p)
2054     {
2055         size_t offset = cast(size_t)(p - this.baseAddr);
2056         size_t pagenum = offset / PAGESIZE;
2057         Bins bin = cast(Bins)this.pagetable[pagenum];
2058         // Adjust bit to be at start of allocated memory block
2059         if (bin <= B_PAGE)
2060             return this.baseAddr + (offset & notbinsize[bin]);
2061         if (bin == B_PAGEPLUS) {
2062             do {
2063                 --pagenum, offset -= PAGESIZE;
2064             } while (cast(Bins)this.pagetable[pagenum] == B_PAGEPLUS);
2065             return this.baseAddr + (offset & (offset.max ^ (PAGESIZE-1)));
2066         }
2067         // we are in a B_FREE page
2068         return null;
2069     }
2070
2071
2072     /**
2073      * Find size of pointer p.
2074      * Returns 0 if p doesn't belong to this pool if if it's block size is less
2075      * than a PAGE.
2076      */
2077     size_t findSize(void *p)
2078     {
2079         size_t pagenum = cast(size_t)(p - this.baseAddr) / PAGESIZE;
2080         Bins bin = cast(Bins)this.pagetable[pagenum];
2081         if (bin != B_PAGE)
2082             return binsize[bin];
2083         if (this.cached_ptr == p)
2084             return this.cached_size;
2085         size_t i = pagenum + 1;
2086         for (; i < this.npages; i++)
2087             if (this.pagetable[i] != B_PAGEPLUS)
2088                 break;
2089         this.cached_ptr = p;
2090         this.cached_size = (i - pagenum) * PAGESIZE;
2091         return this.cached_size;
2092     }
2093
2094
2095     /**
2096      * Used for sorting pools
2097      */
2098     int opCmp(in Pool other)
2099     {
2100         if (baseAddr < other.baseAddr)
2101             return -1;
2102         else
2103         return cast(int)(baseAddr > other.baseAddr);
2104     }
2105 }
2106
2107
2108 /* ============================ SENTINEL =============================== */
2109
2110
2111 const size_t SENTINEL_PRE = cast(size_t) 0xF4F4F4F4F4F4F4F4UL; // 32 or 64 bits
2112 const ubyte SENTINEL_POST = 0xF5;           // 8 bits
2113 const uint SENTINEL_EXTRA = 2 * size_t.sizeof + 1;
2114
2115
2116 size_t* sentinel_size(void *p)  { return &(cast(size_t *)p)[-2]; }
2117 size_t* sentinel_pre(void *p)   { return &(cast(size_t *)p)[-1]; }
2118 ubyte* sentinel_post(void *p) { return &(cast(ubyte *)p)[*sentinel_size(p)]; }
2119
2120
2121 void sentinel_init(void *p, size_t size)
2122 {
2123     *sentinel_size(p) = size;
2124     *sentinel_pre(p) = SENTINEL_PRE;
2125     *sentinel_post(p) = SENTINEL_POST;
2126 }
2127
2128
2129 void sentinel_Invariant(void *p)
2130 {
2131     if (*sentinel_pre(p) != SENTINEL_PRE ||
2132             *sentinel_post(p) != SENTINEL_POST)
2133         cstdlib.abort();
2134 }
2135
2136
2137 void *sentinel_add(void *p)
2138 {
2139     return p + 2 * size_t.sizeof;
2140 }
2141
2142
2143 void *sentinel_sub(void *p)
2144 {
2145     return p - 2 * size_t.sizeof;
2146 }
2147
2148
2149
2150 /* ============================ C Public Interface ======================== */
2151
2152
2153 private int _termCleanupLevel=1;
2154
2155 extern (C):
2156
2157 /// sets the cleanup level done by gc
2158 /// 0: none
2159 /// 1: fullCollect
2160 /// 2: fullCollect ignoring stack roots (might crash daemonThreads)
2161 /// result !=0 if the value was invalid
2162 int gc_setTermCleanupLevel(int cLevel)
2163 {
2164     if (cLevel<0 || cLevel>2) return cLevel;
2165     _termCleanupLevel=cLevel;
2166     return 0;
2167 }
2168
2169 /// returns the cleanup level done by gc
2170 int gc_getTermCleanupLevel()
2171 {
2172     return _termCleanupLevel;
2173 }
2174
2175 void gc_init()
2176 {
2177     scope (exit) assert (Invariant());
2178     gc = cast(GC*) cstdlib.calloc(1, GC.sizeof);
2179     *gc = GC.init;
2180     initialize();
2181     version (DigitalMars) version(OSX) {
2182         _d_osx_image_init();
2183     }
2184     // NOTE: The GC must initialize the thread library
2185     //       before its first collection.
2186     thread_init();
2187 }
2188
2189 void gc_term()
2190 {
2191     assert (Invariant());
2192     if (_termCleanupLevel<1) {
2193         // no cleanup
2194     } else if (_termCleanupLevel==2){
2195         // a more complete cleanup
2196         // NOTE: There may be daemons threads still running when this routine is
2197         //       called.  If so, cleaning memory out from under then is a good
2198         //       way to make them crash horribly.
2199         //       Often this probably doesn't matter much since the app is
2200         //       supposed to be shutting down anyway, but for example tests might
2201         //       crash (and be considerd failed even if the test was ok).
2202         //       thus this is not the default and should be enabled by
2203         //       I'm disabling cleanup for now until I can think about it some
2204         //       more.
2205         //
2206         // not really a 'collect all' -- still scans static data area, roots,
2207         // and ranges.
2208         return locked!(void, () {
2209             gc.no_stack++;
2210             fullcollectshell();
2211             gc.no_stack--;
2212         })();
2213     } else {
2214         // default (safe) clenup
2215         return locked!(void, () {
2216             fullcollectshell();
2217         })();
2218     }
2219 }
2220
2221 void gc_enable()
2222 {
2223     return locked!(void, () {
2224         assert (Invariant()); scope (exit) assert (Invariant());
2225         assert (gc.disabled > 0);
2226         gc.disabled--;
2227     })();
2228 }
2229
2230 void gc_disable()
2231 {
2232     return locked!(void, () {
2233         assert (Invariant()); scope (exit) assert (Invariant());
2234         gc.disabled++;
2235     })();
2236 }
2237
2238 void gc_collect()
2239 {
2240     return locked!(void, () {
2241         assert (Invariant()); scope (exit) assert (Invariant());
2242         fullcollectshell();
2243     })();
2244 }
2245
2246
2247 void gc_minimize()
2248 {
2249     return locked!(void, () {
2250         assert (Invariant()); scope (exit) assert (Invariant());
2251         minimize();
2252     })();
2253 }
2254
2255 uint gc_getAttr(void* p)
2256 {
2257     if (p is null)
2258         return 0;
2259     return locked!(uint, () {
2260         assert (Invariant()); scope (exit) assert (Invariant());
2261         Pool* pool = findPool(p);
2262         if (pool is null)
2263             return 0u;
2264         auto bit_i = cast(size_t)(p - pool.baseAddr) / 16;
2265         return getAttr(pool, bit_i);
2266     })();
2267 }
2268
2269 uint gc_setAttr(void* p, uint attrs)
2270 {
2271     if (p is null)
2272         return 0;
2273     return locked!(uint, () {
2274         assert (Invariant()); scope (exit) assert (Invariant());
2275         Pool* pool = findPool(p);
2276         if (pool is null)
2277             return 0u;
2278         auto bit_i = cast(size_t)(p - pool.baseAddr) / 16;
2279         uint old_attrs = getAttr(pool, bit_i);
2280         setAttr(pool, bit_i, attrs);
2281         return old_attrs;
2282     })();
2283 }
2284
2285 uint gc_clrAttr(void* p, uint attrs)
2286 {
2287     if (p is null)
2288         return 0;
2289     return locked!(uint, () {
2290         assert (Invariant()); scope (exit) assert (Invariant());
2291         Pool* pool = findPool(p);
2292         if (pool is null)
2293             return 0u;
2294         auto bit_i = cast(size_t)(p - pool.baseAddr) / 16;
2295         uint old_attrs = getAttr(pool, bit_i);
2296         clrAttr(pool, bit_i, attrs);
2297         return old_attrs;
2298     })();
2299 }
2300
2301 void* gc_malloc(size_t size, uint attrs = 0,
2302         PointerMap ptrmap = PointerMap.init)
2303 {
2304     if (size == 0)
2305         return null;
2306     return locked!(void*, () {
2307         assert (Invariant()); scope (exit) assert (Invariant());
2308         return malloc(size, attrs, ptrmap.bits.ptr);
2309     })();
2310 }
2311
2312 void* gc_calloc(size_t size, uint attrs = 0,
2313         PointerMap ptrmap = PointerMap.init)
2314 {
2315     if (size == 0)
2316         return null;
2317     return locked!(void*, () {
2318         assert (Invariant()); scope (exit) assert (Invariant());
2319         return calloc(size, attrs, ptrmap.bits.ptr);
2320     })();
2321 }
2322
2323 void* gc_realloc(void* p, size_t size, uint attrs = 0,
2324         PointerMap ptrmap = PointerMap.init)
2325 {
2326     return locked!(void*, () {
2327         assert (Invariant()); scope (exit) assert (Invariant());
2328         return realloc(p, size, attrs, ptrmap.bits.ptr);
2329     })();
2330 }
2331
2332 size_t gc_extend(void* p, size_t min_size, size_t max_size)
2333 {
2334     return locked!(size_t, () {
2335         assert (Invariant()); scope (exit) assert (Invariant());
2336         return extend(p, min_size, max_size);
2337     })();
2338 }
2339
2340 size_t gc_reserve(size_t size)
2341 {
2342     if (size == 0)
2343         return 0;
2344     return locked!(size_t, () {
2345         assert (Invariant()); scope (exit) assert (Invariant());
2346         return reserve(size);
2347     })();
2348 }
2349
2350 void gc_free(void* p)
2351 {
2352     if (p is null)
2353         return;
2354     return locked!(void, () {
2355         assert (Invariant()); scope (exit) assert (Invariant());
2356         free(p);
2357     })();
2358 }
2359
2360 void* gc_addrOf(void* p)
2361 {
2362     if (p is null)
2363         return null;
2364     return locked!(void*, () {
2365         assert (Invariant()); scope (exit) assert (Invariant());
2366         Pool* pool = findPool(p);
2367         if (pool is null)
2368             return null;
2369         return pool.findBase(p);
2370     })();
2371 }
2372
2373 size_t gc_sizeOf(void* p)
2374 {
2375     if (p is null)
2376         return 0;
2377     return locked!(size_t, () {
2378         assert (Invariant()); scope (exit) assert (Invariant());
2379         return sizeOf(p);
2380     })();
2381 }
2382
2383 BlkInfo gc_query(void* p)
2384 {
2385     if (p is null)
2386         return BlkInfo.init;
2387     return locked!(BlkInfo, () {
2388         assert (Invariant()); scope (exit) assert (Invariant());
2389         return getInfo(p);
2390     })();
2391 }
2392
2393 // NOTE: This routine is experimental.  The stats or function name may change
2394 //       before it is made officially available.
2395 GCStats gc_stats()
2396 {
2397     return locked!(GCStats, () {
2398         assert (Invariant()); scope (exit) assert (Invariant());
2399         return getStats();
2400     })();
2401 }
2402
2403 void gc_addRoot(void* p)
2404 {
2405     if (p is null)
2406         return;
2407     return locked!(void, () {
2408         assert (Invariant()); scope (exit) assert (Invariant());
2409         if (gc.roots.append(p) is null)
2410             onOutOfMemoryError();
2411     })();
2412 }
2413
2414 void gc_addRange(void* p, size_t size)
2415 {
2416     if (p is null || size == 0)
2417         return;
2418     return locked!(void, () {
2419         assert (Invariant()); scope (exit) assert (Invariant());
2420         if (gc.ranges.append(Range(p, p + size)) is null)
2421             onOutOfMemoryError();
2422     })();
2423 }
2424
2425 void gc_removeRoot(void* p)
2426 {
2427     if (p is null)
2428         return;
2429     return locked!(void, () {
2430         assert (Invariant()); scope (exit) assert (Invariant());
2431         bool r = gc.roots.remove(p);
2432         assert (r);
2433     })();
2434 }
2435
2436 void gc_removeRange(void* p)
2437 {
2438     if (p is null)
2439         return;
2440     return locked!(void, () {
2441         assert (Invariant()); scope (exit) assert (Invariant());
2442         bool r = gc.ranges.remove(Range(p, null));
2443         assert (r);
2444     })();
2445 }
2446
2447 void* gc_weakpointerCreate(Object r)
2448 {
2449     // weakpointers do their own locking
2450     return weakpointerCreate(r);
2451 }
2452
2453 void gc_weakpointerDestroy(void* wp)
2454 {
2455     // weakpointers do their own locking
2456     weakpointerDestroy(wp);
2457 }
2458
2459 Object gc_weakpointerGet(void* wp)
2460 {
2461     // weakpointers do their own locking
2462     return weakpointerGet(wp);
2463 }
2464
2465
2466 // vim: set et sw=4 sts=4 :