]> git.llucax.com Git - software/dgc/cdgc.git/blob - rt/gc/cdgc/gc.d
Sync the pool block size cache properly
[software/dgc/cdgc.git] / rt / gc / cdgc / gc.d
1 /**
2  * This module contains the garbage collector implementation.
3  *
4  * Copyright: Copyright (C) 2001-2007 Digital Mars, www.digitalmars.com.
5  *            All rights reserved.
6  * License:
7  *  This software is provided 'as-is', without any express or implied
8  *  warranty. In no event will the authors be held liable for any damages
9  *  arising from the use of this software.
10  *
11  *  Permission is granted to anyone to use this software for any purpose,
12  *  including commercial applications, and to alter it and redistribute it
13  *  freely, in both source and binary form, subject to the following
14  *  restrictions:
15  *
16  *  o  The origin of this software must not be misrepresented; you must not
17  *     claim that you wrote the original software. If you use this software
18  *     in a product, an acknowledgment in the product documentation would be
19  *     appreciated but is not required.
20  *  o  Altered source versions must be plainly marked as such, and must not
21  *     be misrepresented as being the original software.
22  *  o  This notice may not be removed or altered from any source
23  *     distribution.
24  * Authors:   Walter Bright, David Friedman, Sean Kelly
25  */
26
27 module rt.gc.cdgc.gc;
28
29 // D Programming Language Garbage Collector implementation
30
31 /************** Debugging ***************************/
32
33 //debug = COLLECT_PRINTF;       // turn on printf's
34 //debug = PTRCHECK;             // more pointer checking
35 //debug = PTRCHECK2;            // thorough but slow pointer checking
36
37 /*************** Configuration *********************/
38
39 version = STACKGROWSDOWN;       // growing the stack means subtracting from the stack pointer
40                                 // (use for Intel X86 CPUs)
41                                 // else growing the stack means adding to the stack pointer
42
43 /***************************************************/
44
45 import rt.gc.cdgc.bits: GCBits;
46 import rt.gc.cdgc.stats: GCStats, Stats;
47 import dynarray = rt.gc.cdgc.dynarray;
48 import os = rt.gc.cdgc.os;
49 import opts = rt.gc.cdgc.opts;
50
51 import cstdlib = tango.stdc.stdlib;
52 import cstring = tango.stdc.string;
53
54 /*
55  * This is a small optimization that proved it's usefulness. For small chunks
56  * or memory memset() seems to be slower (probably because of the call) that
57  * simply doing a simple loop to set the memory.
58  */
59 void memset(void* dst, int c, size_t n)
60 {
61     // This number (32) has been determined empirically
62     if (n > 32) {
63         cstring.memset(dst, c, n);
64         return;
65     }
66     auto p = cast(ubyte*)(dst);
67     while (n-- > 0)
68         *p++ = c;
69 }
70
71 version (GNU)
72 {
73     // BUG: The following import will likely not work, since the gcc
74     //      subdirectory is elsewhere.  Instead, perhaps the functions
75     //      could be declared directly or some other resolution could
76     //      be found.
77     static import gcc.builtins; // for __builtin_unwind_int
78 }
79
80 struct BlkInfo
81 {
82     void*  base;
83     size_t size;
84     uint   attr;
85 }
86
87 package enum BlkAttr : uint
88 {
89     FINALIZE = 0b0000_0001,
90     NO_SCAN  = 0b0000_0010,
91     NO_MOVE  = 0b0000_0100,
92     ALL_BITS = 0b1111_1111
93 }
94
95 package bool has_pointermap(uint attrs)
96 {
97     return !opts.options.conservative && !(attrs & BlkAttr.NO_SCAN);
98 }
99
100 private
101 {
102     alias void delegate(Object) DEvent;
103     alias void delegate( void*, void* ) scanFn;
104     enum { OPFAIL = ~cast(size_t)0 }
105
106     extern (C)
107     {
108         version (DigitalMars) version(OSX)
109             oid _d_osx_image_init();
110
111         void* rt_stackBottom();
112         void* rt_stackTop();
113         void rt_finalize( void* p, bool det = true );
114         void rt_attachDisposeEvent(Object h, DEvent e);
115         bool rt_detachDisposeEvent(Object h, DEvent e);
116         void rt_scanStaticData( scanFn scan );
117
118         void thread_init();
119         bool thread_needLock();
120         void thread_suspendAll();
121         void thread_resumeAll();
122         void thread_scanAll( scanFn fn, void* curStackTop = null );
123
124         void onOutOfMemoryError();
125     }
126 }
127
128
129 enum
130 {
131     PAGESIZE =    4096,
132     POOLSIZE =   (4096*256),
133 }
134
135
136 enum
137 {
138     B_16,
139     B_32,
140     B_64,
141     B_128,
142     B_256,
143     B_512,
144     B_1024,
145     B_2048,
146     B_PAGE,             // start of large alloc
147     B_PAGEPLUS,         // continuation of large alloc
148     B_FREE,             // free page
149     B_MAX
150 }
151
152
153 alias ubyte Bins;
154
155
156 struct List
157 {
158     List* next;
159     Pool* pool;
160 }
161
162
163 struct Range
164 {
165     void *pbot;
166     void *ptop;
167     int opCmp(in Range other)
168     {
169         if (pbot < other.pbot)
170             return -1;
171         else
172         return cast(int)(pbot > other.pbot);
173     }
174 }
175
176
177 const uint binsize[B_MAX] = [ 16,32,64,128,256,512,1024,2048,4096 ];
178 const uint notbinsize[B_MAX] = [ ~(16u-1),~(32u-1),~(64u-1),~(128u-1),~(256u-1),
179                                 ~(512u-1),~(1024u-1),~(2048u-1),~(4096u-1) ];
180
181
182 /* ============================ GC =============================== */
183
184
185 class GCLock {} // just a dummy so we can get a global lock
186
187
188 struct GC
189 {
190     // global lock
191     ClassInfo lock;
192
193     void* p_cache;
194     size_t size_cache;
195
196     // !=0 means don't scan stack
197     uint no_stack;
198     bool any_changes;
199     void* stack_bottom;
200     uint inited;
201     /// Turn off collections if > 0
202     int disabled;
203
204     /// min(pool.baseAddr)
205     byte *min_addr;
206     /// max(pool.topAddr)
207     byte *max_addr;
208
209     /// Free list for each size
210     List*[B_MAX] free_list;
211
212     dynarray.DynArray!(void*) roots;
213     dynarray.DynArray!(Range) ranges;
214     dynarray.DynArray!(Pool*) pools;
215
216     Stats stats;
217 }
218
219 // call locked if necessary
220 private T locked(T, alias Code)()
221 {
222     if (thread_needLock())
223         synchronized (gc.lock) return Code();
224     else
225        return Code();
226 }
227
228 private GC* gc;
229
230 bool Invariant()
231 {
232     assert (gc !is null);
233     if (gc.inited) {
234         for (size_t i = 0; i < gc.pools.length; i++) {
235             Pool* pool = gc.pools[i];
236             pool.Invariant();
237             if (i == 0)
238                 assert(gc.min_addr == pool.baseAddr);
239             if (i + 1 < gc.pools.length)
240                 assert(*pool < *gc.pools[i + 1]);
241             else if (i + 1 == gc.pools.length)
242                 assert(gc.max_addr == pool.topAddr);
243         }
244
245         gc.roots.Invariant();
246         gc.ranges.Invariant();
247
248         for (size_t i = 0; i < gc.ranges.length; i++) {
249             assert(gc.ranges[i].pbot);
250             assert(gc.ranges[i].ptop);
251             assert(gc.ranges[i].pbot <= gc.ranges[i].ptop);
252         }
253
254         for (size_t i = 0; i < B_PAGE; i++) {
255             for (List *list = gc.free_list[i]; list; list = list.next) {
256                 assert (list.pool !is null);
257                 auto p = cast(byte*) list;
258                 assert (p >= list.pool.baseAddr);
259                 assert (p < list.pool.topAddr);
260             }
261         }
262     }
263     return true;
264 }
265
266
267 /**
268  * Find Pool that pointer is in.
269  * Return null if not in a Pool.
270  * Assume pools is sorted.
271  */
272 Pool* findPool(void* p)
273 {
274     if (p < gc.min_addr || p >= gc.max_addr)
275         return null;
276     if (gc.pools.length == 0)
277         return null;
278     if (gc.pools.length == 1)
279         return gc.pools[0];
280     /// The pooltable[] is sorted by address, so do a binary search
281     size_t low = 0;
282     size_t high = gc.pools.length - 1;
283     while (low <= high) {
284         size_t mid = (low + high) / 2;
285         auto pool = gc.pools[mid];
286         if (p < pool.baseAddr)
287             high = mid - 1;
288         else if (p >= pool.topAddr)
289             low = mid + 1;
290         else
291             return pool;
292     }
293     // Not found
294     return null;
295 }
296
297
298 /**
299  * Determine the base address of the block containing p.  If p is not a gc
300  * allocated pointer, return null.
301  */
302 BlkInfo getInfo(void* p)
303 {
304     assert (p !is null);
305     Pool* pool = findPool(p);
306     if (pool is null)
307         return BlkInfo.init;
308     BlkInfo info;
309     info.base = pool.findBase(p);
310     info.size = pool.findSize(info.base);
311     info.attr = getAttr(pool, cast(size_t)(info.base - pool.baseAddr) / 16u);
312     if (has_pointermap(info.attr)) {
313         info.size -= size_t.sizeof; // PointerMap bitmask
314         // Points to the PointerMap bitmask pointer, not user data
315         if (p >= (info.base + info.size)) {
316             return BlkInfo.init;
317         }
318     }
319     if (opts.options.sentinel) {
320         info.base = sentinel_add(info.base);
321         // points to sentinel data, not user data
322         if (p < info.base || p >= sentinel_post(info.base))
323             return BlkInfo.init;
324         info.size -= SENTINEL_EXTRA;
325     }
326     return info;
327 }
328
329
330 /**
331  * Compute bin for size.
332  */
333 Bins findBin(size_t size)
334 {
335     Bins bin;
336     if (size <= 256)
337     {
338         if (size <= 64)
339         {
340             if (size <= 16)
341                 bin = B_16;
342             else if (size <= 32)
343                 bin = B_32;
344             else
345                 bin = B_64;
346         }
347         else
348         {
349             if (size <= 128)
350                 bin = B_128;
351             else
352                 bin = B_256;
353         }
354     }
355     else
356     {
357         if (size <= 1024)
358         {
359             if (size <= 512)
360                 bin = B_512;
361             else
362                 bin = B_1024;
363         }
364         else
365         {
366             if (size <= 2048)
367                 bin = B_2048;
368             else
369                 bin = B_PAGE;
370         }
371     }
372     return bin;
373 }
374
375
376 /**
377  * Allocate a new pool of at least size bytes.
378  * Sort it into pools.
379  * Mark all memory in the pool as B_FREE.
380  * Return the actual number of bytes reserved or 0 on error.
381  */
382 size_t reserve(size_t size)
383 {
384     assert(size != 0);
385     size_t npages = (size + PAGESIZE - 1) / PAGESIZE;
386     Pool*  pool = newPool(npages);
387
388     if (!pool)
389         return 0;
390     return pool.npages * PAGESIZE;
391 }
392
393
394 /**
395  * Minimizes physical memory usage by returning free pools to the OS.
396  */
397 void minimize()
398 {
399     size_t n;
400     size_t pn;
401     Pool* pool;
402
403     for (n = 0; n < gc.pools.length; n++)
404     {
405         pool = gc.pools[n];
406         for (pn = 0; pn < pool.npages; pn++)
407         {
408             if (cast(Bins)pool.pagetable[pn] != B_FREE)
409                 break;
410         }
411         if (pn < pool.npages)
412             continue;
413         pool.Dtor();
414         cstdlib.free(pool);
415         gc.pools.remove_at(n);
416         n--;
417     }
418     gc.min_addr = gc.pools[0].baseAddr;
419     gc.max_addr = gc.pools[gc.pools.length - 1].topAddr;
420 }
421
422
423 /**
424  * Allocate a chunk of memory that is larger than a page.
425  * Return null if out of memory.
426  */
427 void* bigAlloc(size_t size, out Pool* pool)
428 {
429     size_t npages;
430     size_t n;
431     size_t pn;
432     size_t freedpages;
433     void*  p;
434     int    state;
435
436     npages = (size + PAGESIZE - 1) / PAGESIZE;
437
438     for (state = 0; ; )
439     {
440         // This code could use some refinement when repeatedly
441         // allocating very large arrays.
442
443         for (n = 0; n < gc.pools.length; n++)
444         {
445             pool = gc.pools[n];
446             pn = pool.allocPages(npages);
447             if (pn != OPFAIL)
448                 goto L1;
449         }
450
451         // Failed
452         switch (state)
453         {
454         case 0:
455             if (gc.disabled)
456             {
457                 state = 1;
458                 continue;
459             }
460             // Try collecting
461             freedpages = fullcollectshell();
462             if (freedpages >= gc.pools.length * ((POOLSIZE / PAGESIZE) / 4))
463             {
464                 state = 1;
465                 continue;
466             }
467             // Release empty pools to prevent bloat
468             minimize();
469             // Allocate new pool
470             pool = newPool(npages);
471             if (!pool)
472             {
473                 state = 2;
474                 continue;
475             }
476             pn = pool.allocPages(npages);
477             assert(pn != OPFAIL);
478             goto L1;
479         case 1:
480             // Release empty pools to prevent bloat
481             minimize();
482             // Allocate new pool
483             pool = newPool(npages);
484             if (!pool)
485                 goto Lnomemory;
486             pn = pool.allocPages(npages);
487             assert(pn != OPFAIL);
488             goto L1;
489         case 2:
490             goto Lnomemory;
491         default:
492             assert(false);
493         }
494     }
495
496   L1:
497     pool.pagetable[pn] = B_PAGE;
498     if (npages > 1)
499         memset(&pool.pagetable[pn + 1], B_PAGEPLUS, npages - 1);
500     p = pool.baseAddr + pn * PAGESIZE;
501     memset(cast(char *)p + size, 0, npages * PAGESIZE - size);
502     if (opts.options.mem_stomp)
503         memset(p, 0xF1, size);
504     return p;
505
506   Lnomemory:
507     return null; // let mallocNoSync handle the error
508 }
509
510
511 /**
512  * Allocate a new pool with at least npages in it.
513  * Sort it into pools.
514  * Return null if failed.
515  */
516 Pool *newPool(size_t npages)
517 {
518     // Minimum of POOLSIZE
519     if (npages < POOLSIZE/PAGESIZE)
520         npages = POOLSIZE/PAGESIZE;
521     else if (npages > POOLSIZE/PAGESIZE)
522     {
523         // Give us 150% of requested size, so there's room to extend
524         auto n = npages + (npages >> 1);
525         if (n < size_t.max/PAGESIZE)
526             npages = n;
527     }
528
529     // Allocate successively larger pools up to 8 megs
530     if (gc.pools.length)
531     {
532         size_t n = gc.pools.length;
533         if (n > 8)
534             n = 8;                  // cap pool size at 8 megs
535         n *= (POOLSIZE / PAGESIZE);
536         if (npages < n)
537             npages = n;
538     }
539
540     auto pool = cast(Pool*) cstdlib.calloc(1, Pool.sizeof);
541     if (pool is null)
542         return null;
543     pool.initialize(npages);
544     if (!pool.baseAddr)
545     {
546         pool.Dtor();
547         return null;
548     }
549
550     auto inserted_pool = *gc.pools.insert_sorted!("*a < *b")(pool);
551     if (inserted_pool is null) {
552         pool.Dtor();
553         return null;
554     }
555     assert (inserted_pool is pool);
556     gc.min_addr = gc.pools[0].baseAddr;
557     gc.max_addr = gc.pools[gc.pools.length - 1].topAddr;
558     return pool;
559 }
560
561
562 /**
563  * Allocate a page of bin's.
564  * Returns:
565  *  0       failed
566  */
567 int allocPage(Bins bin)
568 {
569     Pool*  pool;
570     size_t n;
571     size_t pn;
572     byte*  p;
573     byte*  ptop;
574
575     for (n = 0; n < gc.pools.length; n++)
576     {
577         pool = gc.pools[n];
578         pn = pool.allocPages(1);
579         if (pn != OPFAIL)
580             goto L1;
581     }
582     return 0;               // failed
583
584   L1:
585     pool.pagetable[pn] = cast(ubyte)bin;
586
587     // Convert page to free list
588     size_t size = binsize[bin];
589     auto list_head = &gc.free_list[bin];
590
591     p = pool.baseAddr + pn * PAGESIZE;
592     ptop = p + PAGESIZE;
593     for (; p < ptop; p += size)
594     {
595         List* l = cast(List *) p;
596         l.next = *list_head;
597         l.pool = pool;
598         *list_head = l;
599     }
600     return 1;
601 }
602
603
604 /**
605  * Search a range of memory values and mark any pointers into the GC pool using
606  * type information (bitmask of pointer locations).
607  */
608 void mark_range(void *pbot, void *ptop, size_t* pm_bitmask)
609 {
610     // TODO: make our own assert because assert uses the GC
611     assert (pbot <= ptop);
612
613     const BITS_PER_WORD = size_t.sizeof * 8;
614
615     void **p1 = cast(void **)pbot;
616     void **p2 = cast(void **)ptop;
617     size_t pcache = 0;
618     bool changes = false;
619
620     size_t type_size = pm_bitmask[0];
621     size_t* pm_bits = pm_bitmask + 1;
622     bool has_type_info = type_size != 1 || pm_bits[0] != 1 || pm_bits[1] != 0;
623
624     //printf("marking range: %p -> %p\n", pbot, ptop);
625     for (; p1 + type_size <= p2; p1 += type_size) {
626         for (size_t n = 0; n < type_size; n++) {
627             // scan bit set for this word
628             if (has_type_info &&
629                     !(pm_bits[n / BITS_PER_WORD] & (1 << (n % BITS_PER_WORD))))
630                 continue;
631
632             void* p = *(p1 + n);
633
634             if (p < gc.min_addr || p >= gc.max_addr)
635                 continue;
636
637             if ((cast(size_t)p & ~(PAGESIZE-1)) == pcache)
638                 continue;
639
640             Pool* pool = findPool(p);
641             if (pool)
642             {
643                 size_t offset = cast(size_t)(p - pool.baseAddr);
644                 size_t bit_i = void;
645                 size_t pn = offset / PAGESIZE;
646                 Bins   bin = cast(Bins)pool.pagetable[pn];
647
648                 // Cache B_PAGE, B_PAGEPLUS and B_FREE lookups
649                 if (bin >= B_PAGE)
650                     pcache = cast(size_t)p & ~(PAGESIZE-1);
651
652                 // Adjust bit to be at start of allocated memory block
653                 if (bin <= B_PAGE)
654                     bit_i = (offset & notbinsize[bin]) / 16;
655                 else if (bin == B_PAGEPLUS)
656                 {
657                     do
658                     {
659                         --pn;
660                     }
661                     while (cast(Bins)pool.pagetable[pn] == B_PAGEPLUS);
662                     bit_i = pn * (PAGESIZE / 16);
663                 }
664                 else // Don't mark bits in B_FREE pages
665                     continue;
666
667                 if (!pool.mark.test(bit_i))
668                 {
669                     pool.mark.set(bit_i);
670                     if (!pool.noscan.test(bit_i))
671                     {
672                         pool.scan.set(bit_i);
673                         changes = true;
674                     }
675                 }
676             }
677         }
678     }
679     if (changes)
680         gc.any_changes = true;
681 }
682
683 /**
684  * Return number of full pages free'd.
685  */
686 size_t fullcollectshell()
687 {
688     gc.stats.collection_started();
689     scope (exit)
690         gc.stats.collection_finished();
691
692     // The purpose of the 'shell' is to ensure all the registers
693     // get put on the stack so they'll be scanned
694     void *sp;
695     size_t result;
696     version (GNU)
697     {
698         gcc.builtins.__builtin_unwind_init();
699         sp = & sp;
700     }
701     else version(LDC)
702     {
703         version(X86)
704         {
705             uint eax,ecx,edx,ebx,ebp,esi,edi;
706             asm
707             {
708                 mov eax[EBP], EAX      ;
709                 mov ecx[EBP], ECX      ;
710                 mov edx[EBP], EDX      ;
711                 mov ebx[EBP], EBX      ;
712                 mov ebp[EBP], EBP      ;
713                 mov esi[EBP], ESI      ;
714                 mov edi[EBP], EDI      ;
715                 mov  sp[EBP], ESP      ;
716             }
717         }
718         else version (X86_64)
719         {
720             ulong rax,rbx,rcx,rdx,rbp,rsi,rdi,r8,r9,r10,r11,r12,r13,r14,r15;
721             asm
722             {
723                 movq rax[RBP], RAX      ;
724                 movq rbx[RBP], RBX      ;
725                 movq rcx[RBP], RCX      ;
726                 movq rdx[RBP], RDX      ;
727                 movq rbp[RBP], RBP      ;
728                 movq rsi[RBP], RSI      ;
729                 movq rdi[RBP], RDI      ;
730                 movq r8 [RBP], R8       ;
731                 movq r9 [RBP], R9       ;
732                 movq r10[RBP], R10      ;
733                 movq r11[RBP], R11      ;
734                 movq r12[RBP], R12      ;
735                 movq r13[RBP], R13      ;
736                 movq r14[RBP], R14      ;
737                 movq r15[RBP], R15      ;
738                 movq  sp[RBP], RSP      ;
739             }
740         }
741         else
742         {
743             static assert( false, "Architecture not supported." );
744         }
745     }
746     else
747     {
748     asm
749     {
750         pushad              ;
751         mov sp[EBP],ESP     ;
752     }
753     }
754     result = fullcollect(sp);
755     version (GNU)
756     {
757         // nothing to do
758     }
759     else version(LDC)
760     {
761         // nothing to do
762     }
763     else
764     {
765     asm
766     {
767         popad               ;
768     }
769     }
770     return result;
771 }
772
773
774 /**
775  *
776  */
777 size_t fullcollect(void *stackTop)
778 {
779     debug(COLLECT_PRINTF) printf("Gcx.fullcollect()\n");
780
781     // we always need to stop the world to make threads save the CPU registers
782     // in the stack and prepare themselves for thread_scanAll()
783     thread_suspendAll();
784     gc.stats.world_stopped();
785
786     if (opts.options.fork) {
787         os.pid_t child_pid = os.fork();
788         assert (child_pid != -1); // don't accept errors in non-release mode
789         switch (child_pid) {
790         case -1: // if fork() fails, fallback to stop-the-world
791             opts.options.fork = false;
792             break;
793         case 0: // child process (i.e. the collectors mark phase)
794             mark(stackTop);
795             cstdlib.exit(0);
796             break; // bogus, will never reach here
797         default: // parent process (i.e. the mutator)
798             // start the world again and wait for the mark phase to finish
799             thread_resumeAll();
800             gc.stats.world_started();
801             int status = void;
802             os.pid_t wait_pid = os.waitpid(child_pid, &status, 0);
803             assert (wait_pid == child_pid);
804             return sweep();
805         }
806
807     }
808
809     // if we reach here, we are using the standard stop-the-world collection
810     mark(stackTop);
811     thread_resumeAll();
812     gc.stats.world_started();
813
814     return sweep();
815 }
816
817
818 /**
819  *
820  */
821 void mark(void *stackTop)
822 {
823     debug(COLLECT_PRINTF) printf("\tmark()\n");
824
825     gc.p_cache = null;
826     gc.size_cache = 0;
827
828     gc.any_changes = false;
829     for (size_t n = 0; n < gc.pools.length; n++)
830     {
831         Pool* pool = gc.pools[n];
832         pool.mark.zero();
833         pool.scan.zero();
834         pool.freebits.zero();
835     }
836
837     // Mark each free entry, so it doesn't get scanned
838     for (size_t n = 0; n < B_PAGE; n++)
839     {
840         for (List *list = gc.free_list[n]; list; list = list.next)
841         {
842             Pool* pool = list.pool;
843             auto ptr = cast(byte*) list;
844             assert (pool);
845             assert (pool.baseAddr <= ptr);
846             assert (ptr < pool.topAddr);
847             size_t bit_i = cast(size_t)(ptr - pool.baseAddr) / 16;
848             pool.freebits.set(bit_i);
849         }
850     }
851
852     for (size_t n = 0; n < gc.pools.length; n++)
853     {
854         Pool* pool = gc.pools[n];
855         pool.mark.copy(&pool.freebits);
856     }
857
858     /// Marks a range of memory in conservative mode.
859     void mark_conservative_range(void* pbot, void* ptop)
860     {
861         mark_range(pbot, ptop, PointerMap.init.bits.ptr);
862     }
863
864     rt_scanStaticData(&mark_conservative_range);
865
866     if (!gc.no_stack)
867     {
868         // Scan stacks and registers for each paused thread
869         thread_scanAll(&mark_conservative_range, stackTop);
870     }
871
872     // Scan roots
873     debug(COLLECT_PRINTF) printf("scan roots[]\n");
874     mark_conservative_range(gc.roots.ptr, gc.roots.ptr + gc.roots.length);
875
876     // Scan ranges
877     debug(COLLECT_PRINTF) printf("scan ranges[]\n");
878     for (size_t n = 0; n < gc.ranges.length; n++)
879     {
880         debug(COLLECT_PRINTF) printf("\t%x .. %x\n", gc.ranges[n].pbot, gc.ranges[n].ptop);
881         mark_conservative_range(gc.ranges[n].pbot, gc.ranges[n].ptop);
882     }
883
884     debug(COLLECT_PRINTF) printf("\tscan heap\n");
885     while (gc.any_changes)
886     {
887         gc.any_changes = false;
888         for (size_t n = 0; n < gc.pools.length; n++)
889         {
890             uint *bbase;
891             uint *b;
892             uint *btop;
893
894             Pool* pool = gc.pools[n];
895
896             bbase = pool.scan.base();
897             btop = bbase + pool.scan.nwords;
898             for (b = bbase; b < btop;)
899             {
900                 Bins   bin;
901                 size_t pn;
902                 size_t u;
903                 size_t bitm;
904                 byte*  o;
905
906                 bitm = *b;
907                 if (!bitm)
908                 {
909                     b++;
910                     continue;
911                 }
912                 *b = 0;
913
914                 o = pool.baseAddr + (b - bbase) * 32 * 16;
915                 if (!(bitm & 0xFFFF))
916                 {
917                     bitm >>= 16;
918                     o += 16 * 16;
919                 }
920                 for (; bitm; o += 16, bitm >>= 1)
921                 {
922                     if (!(bitm & 1))
923                         continue;
924
925                     pn = cast(size_t)(o - pool.baseAddr) / PAGESIZE;
926                     bin = cast(Bins)pool.pagetable[pn];
927                     if (bin < B_PAGE) {
928                         if (opts.options.conservative)
929                             mark_conservative_range(o, o + binsize[bin]);
930                         else {
931                             auto end_of_blk = cast(size_t**)(o +
932                                     binsize[bin] - size_t.sizeof);
933                             size_t* pm_bitmask = *end_of_blk;
934                             mark_range(o, end_of_blk, pm_bitmask);
935                         }
936                     }
937                     else if (bin == B_PAGE || bin == B_PAGEPLUS)
938                     {
939                         if (bin == B_PAGEPLUS)
940                         {
941                             while (pool.pagetable[pn - 1] != B_PAGE)
942                                 pn--;
943                         }
944                         u = 1;
945                         while (pn + u < pool.npages &&
946                                 pool.pagetable[pn + u] == B_PAGEPLUS)
947                             u++;
948
949                         size_t blk_size = u * PAGESIZE;
950                         if (opts.options.conservative)
951                             mark_conservative_range(o, o + blk_size);
952                         else {
953                             auto end_of_blk = cast(size_t**)(o + blk_size -
954                                     size_t.sizeof);
955                             size_t* pm_bitmask = *end_of_blk;
956                             mark_range(o, end_of_blk, pm_bitmask);
957                         }
958                     }
959                 }
960             }
961         }
962     }
963 }
964
965
966 /**
967  *
968  */
969 size_t sweep()
970 {
971     // Free up everything not marked
972     debug(COLLECT_PRINTF) printf("\tsweep\n");
973     size_t freedpages = 0;
974     size_t freed = 0;
975     for (size_t n = 0; n < gc.pools.length; n++)
976     {
977         Pool* pool = gc.pools[n];
978         pool.clear_cache();
979         uint*  bbase = pool.mark.base();
980         size_t pn;
981         for (pn = 0; pn < pool.npages; pn++, bbase += PAGESIZE / (32 * 16))
982         {
983             Bins bin = cast(Bins)pool.pagetable[pn];
984
985             if (bin < B_PAGE)
986             {
987                 auto size = binsize[bin];
988                 byte* p = pool.baseAddr + pn * PAGESIZE;
989                 byte* ptop = p + PAGESIZE;
990                 size_t bit_i = pn * (PAGESIZE/16);
991                 size_t bit_stride = size / 16;
992
993 version(none) // BUG: doesn't work because freebits() must also be cleared
994 {
995                 // If free'd entire page
996                 if (bbase[0] == 0 && bbase[1] == 0 && bbase[2] == 0 &&
997                         bbase[3] == 0 && bbase[4] == 0 && bbase[5] == 0 &&
998                         bbase[6] == 0 && bbase[7] == 0)
999                 {
1000                     for (; p < ptop; p += size, bit_i += bit_stride)
1001                     {
1002                         if (pool.finals.nbits && pool.finals.testClear(bit_i)) {
1003                             if (opts.options.sentinel)
1004                                 rt_finalize(sentinel_add(p), false/*gc.no_stack > 0*/);
1005                             else
1006                                 rt_finalize(p, false/*gc.no_stack > 0*/);
1007                         }
1008                         clrAttr(pool, bit_i, BlkAttr.ALL_BITS);
1009
1010                         if (opts.options.mem_stomp)
1011                             memset(p, 0xF3, size);
1012                     }
1013                     pool.pagetable[pn] = B_FREE;
1014                     freed += PAGESIZE;
1015                     continue;
1016                 }
1017 }
1018                 for (; p < ptop; p += size, bit_i += bit_stride)
1019                 {
1020                     if (!pool.mark.test(bit_i))
1021                     {
1022                         if (opts.options.sentinel)
1023                             sentinel_Invariant(sentinel_add(p));
1024
1025                         pool.freebits.set(bit_i);
1026                         if (pool.finals.nbits && pool.finals.testClear(bit_i)) {
1027                             if (opts.options.sentinel)
1028                                 rt_finalize(sentinel_add(p), false/*gc.no_stack > 0*/);
1029                             else
1030                                 rt_finalize(p, false/*gc.no_stack > 0*/);
1031                         }
1032                         clrAttr(pool, bit_i, BlkAttr.ALL_BITS);
1033
1034                         if (opts.options.mem_stomp)
1035                             memset(p, 0xF3, size);
1036
1037                         freed += size;
1038                     }
1039                 }
1040             }
1041             else if (bin == B_PAGE)
1042             {
1043                 size_t bit_i = pn * (PAGESIZE / 16);
1044                 if (!pool.mark.test(bit_i))
1045                 {
1046                     byte *p = pool.baseAddr + pn * PAGESIZE;
1047                     if (opts.options.sentinel)
1048                         sentinel_Invariant(sentinel_add(p));
1049                     if (pool.finals.nbits && pool.finals.testClear(bit_i)) {
1050                         if (opts.options.sentinel)
1051                             rt_finalize(sentinel_add(p), false/*gc.no_stack > 0*/);
1052                         else
1053                             rt_finalize(p, false/*gc.no_stack > 0*/);
1054                     }
1055                     clrAttr(pool, bit_i, BlkAttr.ALL_BITS);
1056
1057                     debug(COLLECT_PRINTF) printf("\tcollecting big %x\n", p);
1058                     pool.pagetable[pn] = B_FREE;
1059                     freedpages++;
1060                     if (opts.options.mem_stomp)
1061                         memset(p, 0xF3, PAGESIZE);
1062                     while (pn + 1 < pool.npages && pool.pagetable[pn + 1] == B_PAGEPLUS)
1063                     {
1064                         pn++;
1065                         pool.pagetable[pn] = B_FREE;
1066                         freedpages++;
1067
1068                         if (opts.options.mem_stomp)
1069                         {
1070                             p += PAGESIZE;
1071                             memset(p, 0xF3, PAGESIZE);
1072                         }
1073                     }
1074                 }
1075             }
1076         }
1077     }
1078
1079     // Zero buckets
1080     gc.free_list[] = null;
1081
1082     // Free complete pages, rebuild free list
1083     debug(COLLECT_PRINTF) printf("\tfree complete pages\n");
1084     size_t recoveredpages = 0;
1085     for (size_t n = 0; n < gc.pools.length; n++)
1086     {
1087         Pool* pool = gc.pools[n];
1088         for (size_t pn = 0; pn < pool.npages; pn++)
1089         {
1090             Bins   bin = cast(Bins)pool.pagetable[pn];
1091             size_t bit_i;
1092             size_t u;
1093
1094             if (bin < B_PAGE)
1095             {
1096                 size_t size = binsize[bin];
1097                 size_t bit_stride = size / 16;
1098                 size_t bit_base = pn * (PAGESIZE / 16);
1099                 size_t bit_top = bit_base + (PAGESIZE / 16);
1100                 byte*  p;
1101
1102                 bit_i = bit_base;
1103                 for (; bit_i < bit_top; bit_i += bit_stride)
1104                 {
1105                     if (!pool.freebits.test(bit_i))
1106                         goto Lnotfree;
1107                 }
1108                 pool.pagetable[pn] = B_FREE;
1109                 recoveredpages++;
1110                 continue;
1111
1112              Lnotfree:
1113                 p = pool.baseAddr + pn * PAGESIZE;
1114                 for (u = 0; u < PAGESIZE; u += size)
1115                 {
1116                     bit_i = bit_base + u / 16;
1117                     if (pool.freebits.test(bit_i))
1118                     {
1119                         assert ((p+u) >= pool.baseAddr);
1120                         assert ((p+u) < pool.topAddr);
1121                         List* list = cast(List*) (p + u);
1122                         // avoid unnecesary writes (it really saves time)
1123                         if (list.next != gc.free_list[bin])
1124                             list.next = gc.free_list[bin];
1125                         if (list.pool != pool)
1126                             list.pool = pool;
1127                         gc.free_list[bin] = list;
1128                     }
1129                 }
1130             }
1131         }
1132     }
1133
1134     debug(COLLECT_PRINTF) printf("recovered pages = %d\n", recoveredpages);
1135     debug(COLLECT_PRINTF) printf("\tfree'd %u bytes, %u pages from %u pools\n", freed, freedpages, gc.pools.length);
1136
1137     return freedpages + recoveredpages;
1138 }
1139
1140
1141 /**
1142  *
1143  */
1144 uint getAttr(Pool* pool, size_t bit_i)
1145 in
1146 {
1147     assert( pool );
1148 }
1149 body
1150 {
1151     uint attrs;
1152
1153     if (pool.finals.nbits &&
1154         pool.finals.test(bit_i))
1155         attrs |= BlkAttr.FINALIZE;
1156     if (pool.noscan.test(bit_i))
1157         attrs |= BlkAttr.NO_SCAN;
1158 //        if (pool.nomove.nbits &&
1159 //            pool.nomove.test(bit_i))
1160 //            attrs |= BlkAttr.NO_MOVE;
1161     return attrs;
1162 }
1163
1164
1165 /**
1166  *
1167  */
1168 void setAttr(Pool* pool, size_t bit_i, uint mask)
1169 in
1170 {
1171     assert( pool );
1172 }
1173 body
1174 {
1175     if (mask & BlkAttr.FINALIZE)
1176     {
1177         if (!pool.finals.nbits)
1178             pool.finals.alloc(pool.mark.nbits);
1179         pool.finals.set(bit_i);
1180     }
1181     if (mask & BlkAttr.NO_SCAN)
1182     {
1183         pool.noscan.set(bit_i);
1184     }
1185 //        if (mask & BlkAttr.NO_MOVE)
1186 //        {
1187 //            if (!pool.nomove.nbits)
1188 //                pool.nomove.alloc(pool.mark.nbits);
1189 //            pool.nomove.set(bit_i);
1190 //        }
1191 }
1192
1193
1194 /**
1195  *
1196  */
1197 void clrAttr(Pool* pool, size_t bit_i, uint mask)
1198 in
1199 {
1200     assert( pool );
1201 }
1202 body
1203 {
1204     if (mask & BlkAttr.FINALIZE && pool.finals.nbits)
1205         pool.finals.clear(bit_i);
1206     if (mask & BlkAttr.NO_SCAN)
1207         pool.noscan.clear(bit_i);
1208 //        if (mask & BlkAttr.NO_MOVE && pool.nomove.nbits)
1209 //            pool.nomove.clear(bit_i);
1210 }
1211
1212
1213
1214 void initialize()
1215 {
1216     int dummy;
1217     gc.stack_bottom = cast(char*)&dummy;
1218     opts.parse(cstdlib.getenv("D_GC_OPTS"));
1219     // If we are going to fork, make sure we have the needed OS support
1220     if (opts.options.fork)
1221         opts.options.fork = os.HAVE_SHARED && os.HAVE_FORK;
1222     gc.lock = GCLock.classinfo;
1223     gc.inited = 1;
1224     setStackBottom(rt_stackBottom());
1225     gc.stats = Stats(gc);
1226 }
1227
1228
1229 //
1230 //
1231 //
1232 private void *malloc(size_t size, uint attrs, size_t* pm_bitmask)
1233 {
1234     assert(size != 0);
1235
1236     gc.stats.malloc_started(size, attrs, pm_bitmask);
1237     scope (exit)
1238         gc.stats.malloc_finished(p);
1239
1240     void *p = null;
1241     Bins bin;
1242
1243     if (opts.options.sentinel)
1244         size += SENTINEL_EXTRA;
1245
1246     bool has_pm = has_pointermap(attrs);
1247     if (has_pm)
1248         size += size_t.sizeof;
1249
1250     // Compute size bin
1251     // Cache previous binsize lookup - Dave Fladebo.
1252     static size_t lastsize = -1;
1253     static Bins lastbin;
1254     if (size == lastsize)
1255         bin = lastbin;
1256     else
1257     {
1258         bin = findBin(size);
1259         lastsize = size;
1260         lastbin = bin;
1261     }
1262
1263     Pool* pool = void;
1264     size_t capacity = void; // to figure out where to store the bitmask
1265     if (bin < B_PAGE)
1266     {
1267         p = gc.free_list[bin];
1268         if (p is null)
1269         {
1270             if (!allocPage(bin) && !gc.disabled)   // try to find a new page
1271             {
1272                 if (!thread_needLock())
1273                 {
1274                     /* Then we haven't locked it yet. Be sure
1275                      * and gc.lock for a collection, since a finalizer
1276                      * may start a new thread.
1277                      */
1278                     synchronized (gc.lock)
1279                     {
1280                         fullcollectshell();
1281                     }
1282                 }
1283                 else if (!fullcollectshell())       // collect to find a new page
1284                 {
1285                     //newPool(1);
1286                 }
1287             }
1288             if (!gc.free_list[bin] && !allocPage(bin))
1289             {
1290                 newPool(1);         // allocate new pool to find a new page
1291                 // TODO: hint allocPage() to use the pool we just created
1292                 int result = allocPage(bin);
1293                 if (!result)
1294                     onOutOfMemoryError();
1295             }
1296             p = gc.free_list[bin];
1297         }
1298         capacity = binsize[bin];
1299
1300         // Return next item from free list
1301         List* list = cast(List*) p;
1302         assert ((cast(byte*)list) >= list.pool.baseAddr);
1303         assert ((cast(byte*)list) < list.pool.topAddr);
1304         gc.free_list[bin] = list.next;
1305         pool = list.pool;
1306         if (!(attrs & BlkAttr.NO_SCAN))
1307             memset(p + size, 0, capacity - size);
1308         if (opts.options.mem_stomp)
1309             memset(p, 0xF0, size);
1310     }
1311     else
1312     {
1313         p = bigAlloc(size, pool);
1314         if (!p)
1315             onOutOfMemoryError();
1316         assert (pool !is null);
1317         // Round the size up to the number of pages needed to store it
1318         size_t npages = (size + PAGESIZE - 1) / PAGESIZE;
1319         capacity = npages * PAGESIZE;
1320     }
1321
1322     // Store the bit mask AFTER SENTINEL_POST
1323     // TODO: store it BEFORE, so the bitmask is protected too
1324     if (has_pm) {
1325         auto end_of_blk = cast(size_t**)(p + capacity - size_t.sizeof);
1326         *end_of_blk = pm_bitmask;
1327         size -= size_t.sizeof;
1328     }
1329
1330     if (opts.options.sentinel) {
1331         size -= SENTINEL_EXTRA;
1332         p = sentinel_add(p);
1333         sentinel_init(p, size);
1334     }
1335
1336     if (attrs)
1337         setAttr(pool, cast(size_t)(p - pool.baseAddr) / 16, attrs);
1338
1339     return p;
1340 }
1341
1342
1343 //
1344 //
1345 //
1346 private void *calloc(size_t size, uint attrs, size_t* pm_bitmask)
1347 {
1348     assert(size != 0);
1349
1350     void *p = malloc(size, attrs, pm_bitmask);
1351     memset(p, 0, size);
1352     return p;
1353 }
1354
1355
1356 //
1357 //
1358 //
1359 private void *realloc(void *p, size_t size, uint attrs,
1360         size_t* pm_bitmask)
1361 {
1362     if (!size)
1363     {
1364         if (p)
1365         {
1366             free(p);
1367             p = null;
1368         }
1369     }
1370     else if (!p)
1371     {
1372         p = malloc(size, attrs, pm_bitmask);
1373     }
1374     else
1375     {
1376         Pool* pool = findPool(p);
1377         if (pool is null)
1378             return null;
1379
1380         // Set or retrieve attributes as appropriate
1381         auto bit_i = cast(size_t)(p - pool.baseAddr) / 16;
1382         if (attrs) {
1383             clrAttr(pool, bit_i, BlkAttr.ALL_BITS);
1384             setAttr(pool, bit_i, attrs);
1385         }
1386         else
1387             attrs = getAttr(pool, bit_i);
1388
1389         void* blk_base_addr = pool.findBase(p);
1390         size_t blk_size = pool.findSize(p);
1391         bool has_pm = has_pointermap(attrs);
1392         size_t pm_bitmask_size = 0;
1393         if (has_pm) {
1394             pm_bitmask_size = size_t.sizeof;
1395             // Retrieve pointer map bit mask if appropriate
1396             if (pm_bitmask is null) {
1397                 auto end_of_blk = cast(size_t**)(blk_base_addr +
1398                         blk_size - size_t.sizeof);
1399                 pm_bitmask = *end_of_blk;
1400             }
1401         }
1402
1403         if (opts.options.sentinel)
1404         {
1405             sentinel_Invariant(p);
1406             size_t sentinel_stored_size = *sentinel_size(p);
1407             if (sentinel_stored_size != size)
1408             {
1409                 void* p2 = malloc(size, attrs, pm_bitmask);
1410                 if (sentinel_stored_size < size)
1411                     size = sentinel_stored_size;
1412                 cstring.memcpy(p2, p, size);
1413                 p = p2;
1414             }
1415         }
1416         else
1417         {
1418             size += pm_bitmask_size;
1419             if (blk_size >= PAGESIZE && size >= PAGESIZE)
1420             {
1421                 auto psz = blk_size / PAGESIZE;
1422                 auto newsz = (size + PAGESIZE - 1) / PAGESIZE;
1423                 if (newsz == psz)
1424                     return p;
1425
1426                 auto pagenum = (p - pool.baseAddr) / PAGESIZE;
1427
1428                 if (newsz < psz)
1429                 {
1430                     // Shrink in place
1431                     if (opts.options.mem_stomp)
1432                         memset(p + size - pm_bitmask_size, 0xF2,
1433                                 blk_size - size - pm_bitmask_size);
1434                     pool.freePages(pagenum + newsz, psz - newsz);
1435                     auto new_blk_size = (PAGESIZE * newsz);
1436                     // update the size cache, assuming that is very likely the
1437                     // size of this block will be queried in the near future
1438                     pool.update_cache(p, new_blk_size);
1439                     if (has_pm) {
1440                         auto end_of_blk = cast(size_t**)(blk_base_addr +
1441                                 new_blk_size - pm_bitmask_size);
1442                         *end_of_blk = pm_bitmask;
1443                     }
1444                     return p;
1445                 }
1446                 else if (pagenum + newsz <= pool.npages)
1447                 {
1448                     // Attempt to expand in place
1449                     for (size_t i = pagenum + psz; 1;)
1450                     {
1451                         if (i == pagenum + newsz)
1452                         {
1453                             if (opts.options.mem_stomp)
1454                                 memset(p + blk_size - pm_bitmask_size,
1455                                         0xF0, size - blk_size
1456                                         - pm_bitmask_size);
1457                             memset(pool.pagetable + pagenum +
1458                                     psz, B_PAGEPLUS, newsz - psz);
1459                             auto new_blk_size = (PAGESIZE * newsz);
1460                             // update the size cache, assuming that is very
1461                             // likely the size of this block will be queried in
1462                             // the near future
1463                             pool.update_cache(p, new_blk_size);
1464                             if (has_pm) {
1465                                 auto end_of_blk = cast(size_t**)(
1466                                         blk_base_addr + new_blk_size -
1467                                         pm_bitmask_size);
1468                                 *end_of_blk = pm_bitmask;
1469                             }
1470                             return p;
1471                         }
1472                         if (i == pool.npages)
1473                         {
1474                             break;
1475                         }
1476                         if (pool.pagetable[i] != B_FREE)
1477                             break;
1478                         i++;
1479                     }
1480                 }
1481             }
1482             // if new size is bigger or less than half
1483             if (blk_size < size || blk_size > size * 2)
1484             {
1485                 size -= pm_bitmask_size;
1486                 blk_size -= pm_bitmask_size;
1487                 void* p2 = malloc(size, attrs, pm_bitmask);
1488                 if (blk_size < size)
1489                     size = blk_size;
1490                 cstring.memcpy(p2, p, size);
1491                 p = p2;
1492             }
1493         }
1494     }
1495     return p;
1496 }
1497
1498
1499 /**
1500  * Attempt to in-place enlarge the memory block pointed to by p by at least
1501  * min_size beyond its current capacity, up to a maximum of max_size.  This
1502  * does not attempt to move the memory block (like realloc() does).
1503  *
1504  * Returns:
1505  *  0 if could not extend p,
1506  *  total size of entire memory block if successful.
1507  */
1508 private size_t extend(void* p, size_t minsize, size_t maxsize)
1509 in
1510 {
1511     assert( minsize <= maxsize );
1512 }
1513 body
1514 {
1515     if (opts.options.sentinel)
1516         return 0;
1517
1518     Pool* pool = findPool(p);
1519     if (pool is null)
1520         return 0;
1521
1522     // Retrieve attributes
1523     auto bit_i = cast(size_t)(p - pool.baseAddr) / 16;
1524     uint attrs = getAttr(pool, bit_i);
1525
1526     void* blk_base_addr = pool.findBase(p);
1527     size_t blk_size = pool.findSize(p);
1528     bool has_pm = has_pointermap(attrs);
1529     size_t* pm_bitmask = null;
1530     size_t pm_bitmask_size = 0;
1531     if (has_pm) {
1532         pm_bitmask_size = size_t.sizeof;
1533         // Retrieve pointer map bit mask
1534         auto end_of_blk = cast(size_t**)(blk_base_addr +
1535                 blk_size - size_t.sizeof);
1536         pm_bitmask = *end_of_blk;
1537
1538         minsize += size_t.sizeof;
1539         maxsize += size_t.sizeof;
1540     }
1541
1542     if (blk_size < PAGESIZE)
1543         return 0; // cannot extend buckets
1544
1545     auto psz = blk_size / PAGESIZE;
1546     auto minsz = (minsize + PAGESIZE - 1) / PAGESIZE;
1547     auto maxsz = (maxsize + PAGESIZE - 1) / PAGESIZE;
1548
1549     auto pagenum = (p - pool.baseAddr) / PAGESIZE;
1550
1551     size_t sz;
1552     for (sz = 0; sz < maxsz; sz++)
1553     {
1554         auto i = pagenum + psz + sz;
1555         if (i == pool.npages)
1556             break;
1557         if (pool.pagetable[i] != B_FREE)
1558         {
1559             if (sz < minsz)
1560                 return 0;
1561             break;
1562         }
1563     }
1564     if (sz < minsz)
1565         return 0;
1566
1567     size_t new_size = (psz + sz) * PAGESIZE;
1568
1569     if (opts.options.mem_stomp)
1570         memset(p + blk_size - pm_bitmask_size, 0xF0,
1571                 new_size - blk_size - pm_bitmask_size);
1572     memset(pool.pagetable + pagenum + psz, B_PAGEPLUS, sz);
1573     gc.p_cache = null;
1574     gc.size_cache = 0;
1575     // update the size cache, assuming that is very likely the size of this
1576     // block will be queried in the near future
1577     pool.update_cache(p, new_size);
1578
1579     if (has_pm) {
1580         new_size -= size_t.sizeof;
1581         auto end_of_blk = cast(size_t**)(blk_base_addr + new_size);
1582         *end_of_blk = pm_bitmask;
1583     }
1584     return new_size;
1585 }
1586
1587
1588 //
1589 //
1590 //
1591 private void free(void *p)
1592 {
1593     assert (p);
1594
1595     Pool*  pool;
1596     size_t pagenum;
1597     Bins   bin;
1598     size_t bit_i;
1599
1600     // Find which page it is in
1601     pool = findPool(p);
1602     if (!pool)                              // if not one of ours
1603         return;                             // ignore
1604     if (opts.options.sentinel) {
1605         sentinel_Invariant(p);
1606         p = sentinel_sub(p);
1607     }
1608     pagenum = cast(size_t)(p - pool.baseAddr) / PAGESIZE;
1609     bit_i = cast(size_t)(p - pool.baseAddr) / 16;
1610     clrAttr(pool, bit_i, BlkAttr.ALL_BITS);
1611
1612     bin = cast(Bins)pool.pagetable[pagenum];
1613     if (bin == B_PAGE)              // if large alloc
1614     {
1615         // Free pages
1616         size_t npages = 1;
1617         size_t n = pagenum;
1618         while (++n < pool.npages && pool.pagetable[n] == B_PAGEPLUS)
1619             npages++;
1620         if (opts.options.mem_stomp)
1621             memset(p, 0xF2, npages * PAGESIZE);
1622         pool.freePages(pagenum, npages);
1623         // just in case we were caching this pointer
1624         pool.clear_cache(p);
1625     }
1626     else
1627     {
1628         // Add to free list
1629         List* list = cast(List*) p;
1630
1631         if (opts.options.mem_stomp)
1632             memset(p, 0xF2, binsize[bin]);
1633
1634         list.next = gc.free_list[bin];
1635         list.pool = pool;
1636         gc.free_list[bin] = list;
1637     }
1638 }
1639
1640
1641 /**
1642  * Determine the allocated size of pointer p.  If p is an interior pointer
1643  * or not a gc allocated pointer, return 0.
1644  */
1645 private size_t sizeOf(void *p)
1646 {
1647     assert (p);
1648
1649     if (opts.options.sentinel)
1650         p = sentinel_sub(p);
1651
1652     Pool* pool = findPool(p);
1653     if (pool is null)
1654         return 0;
1655
1656     auto biti = cast(size_t)(p - pool.baseAddr) / 16;
1657     uint attrs = getAttr(pool, biti);
1658
1659     size_t size = pool.findSize(p);
1660     size_t pm_bitmask_size = 0;
1661     if (has_pointermap(attrs))
1662         pm_bitmask_size = size_t.sizeof;
1663
1664     if (opts.options.sentinel) {
1665         // Check for interior pointer
1666         // This depends on:
1667         // 1) size is a power of 2 for less than PAGESIZE values
1668         // 2) base of memory pool is aligned on PAGESIZE boundary
1669         if (cast(size_t)p & (size - 1) & (PAGESIZE - 1))
1670             return 0;
1671         return size - SENTINEL_EXTRA - pm_bitmask_size;
1672     }
1673     else {
1674         if (p == gc.p_cache)
1675             return gc.size_cache;
1676
1677         // Check for interior pointer
1678         // This depends on:
1679         // 1) size is a power of 2 for less than PAGESIZE values
1680         // 2) base of memory pool is aligned on PAGESIZE boundary
1681         if (cast(size_t)p & (size - 1) & (PAGESIZE - 1))
1682             return 0;
1683
1684         gc.p_cache = p;
1685         gc.size_cache = size - pm_bitmask_size;
1686
1687         return gc.size_cache;
1688     }
1689 }
1690
1691
1692 /**
1693  * Verify that pointer p:
1694  *  1) belongs to this memory pool
1695  *  2) points to the start of an allocated piece of memory
1696  *  3) is not on a free list
1697  */
1698 private void checkNoSync(void *p)
1699 {
1700     assert(p);
1701
1702     if (opts.options.sentinel)
1703         sentinel_Invariant(p);
1704     debug (PTRCHECK)
1705     {
1706         Pool*  pool;
1707         size_t pagenum;
1708         Bins   bin;
1709         size_t size;
1710
1711         if (opts.options.sentinel)
1712             p = sentinel_sub(p);
1713         pool = findPool(p);
1714         assert(pool);
1715         pagenum = cast(size_t)(p - pool.baseAddr) / PAGESIZE;
1716         bin = cast(Bins)pool.pagetable[pagenum];
1717         assert(bin <= B_PAGE);
1718         size = binsize[bin];
1719         assert((cast(size_t)p & (size - 1)) == 0);
1720
1721         debug (PTRCHECK2)
1722         {
1723             if (bin < B_PAGE)
1724             {
1725                 // Check that p is not on a free list
1726                 for (List* list = gc.free_list[bin]; list; list = list.next)
1727                 {
1728                     assert(cast(void*)list != p);
1729                 }
1730             }
1731         }
1732     }
1733 }
1734
1735
1736 //
1737 //
1738 //
1739 private void setStackBottom(void *p)
1740 {
1741     version (STACKGROWSDOWN)
1742     {
1743         //p = (void *)((uint *)p + 4);
1744         if (p > gc.stack_bottom)
1745         {
1746             gc.stack_bottom = p;
1747         }
1748     }
1749     else
1750     {
1751         //p = (void *)((uint *)p - 4);
1752         if (p < gc.stack_bottom)
1753         {
1754             gc.stack_bottom = cast(char*)p;
1755         }
1756     }
1757 }
1758
1759
1760 /**
1761  * Retrieve statistics about garbage collection.
1762  * Useful for debugging and tuning.
1763  */
1764 private GCStats getStats()
1765 {
1766     GCStats stats;
1767     size_t psize = 0;
1768     size_t usize = 0;
1769     size_t flsize = 0;
1770
1771     size_t n;
1772     size_t bsize = 0;
1773
1774     for (n = 0; n < gc.pools.length; n++)
1775     {
1776         Pool* pool = gc.pools[n];
1777         psize += pool.npages * PAGESIZE;
1778         for (size_t j = 0; j < pool.npages; j++)
1779         {
1780             Bins bin = cast(Bins)pool.pagetable[j];
1781             if (bin == B_FREE)
1782                 stats.freeblocks++;
1783             else if (bin == B_PAGE)
1784                 stats.pageblocks++;
1785             else if (bin < B_PAGE)
1786                 bsize += PAGESIZE;
1787         }
1788     }
1789
1790     for (n = 0; n < B_PAGE; n++)
1791     {
1792         for (List* list = gc.free_list[n]; list; list = list.next)
1793             flsize += binsize[n];
1794     }
1795
1796     usize = bsize - flsize;
1797
1798     stats.poolsize = psize;
1799     stats.usedsize = bsize - flsize;
1800     stats.freelistsize = flsize;
1801     return stats;
1802 }
1803
1804 /******************* weak-reference support *********************/
1805
1806 private struct WeakPointer
1807 {
1808     Object reference;
1809
1810     void ondestroy(Object r)
1811     {
1812         assert(r is reference);
1813         // lock for memory consistency (parallel readers)
1814         // also ensures that weakpointerDestroy can be called while another
1815         // thread is freeing the reference with "delete"
1816         return locked!(void, () {
1817             reference = null;
1818         })();
1819     }
1820 }
1821
1822 /**
1823  * Create a weak pointer to the given object.
1824  * Returns a pointer to an opaque struct allocated in C memory.
1825  */
1826 void* weakpointerCreate( Object r )
1827 {
1828     if (r)
1829     {
1830         // must be allocated in C memory
1831         // 1. to hide the reference from the GC
1832         // 2. the GC doesn't scan delegates added by rt_attachDisposeEvent
1833         //    for references
1834         auto wp = cast(WeakPointer*)(cstdlib.malloc(WeakPointer.sizeof));
1835         if (!wp)
1836             onOutOfMemoryError();
1837         wp.reference = r;
1838         rt_attachDisposeEvent(r, &wp.ondestroy);
1839         return wp;
1840     }
1841     return null;
1842 }
1843
1844 /**
1845  * Destroy a weak pointer returned by weakpointerCreate().
1846  * If null is passed, nothing happens.
1847  */
1848 void weakpointerDestroy( void* p )
1849 {
1850     if (p)
1851     {
1852         auto wp = cast(WeakPointer*)p;
1853         // must be extra careful about the GC or parallel threads
1854         // finalizing the reference at the same time
1855         return locked!(void, () {
1856             if (wp.reference)
1857                 rt_detachDisposeEvent(wp.reference, &wp.ondestroy);
1858         })();
1859         cstdlib.free(wp);
1860     }
1861 }
1862
1863 /**
1864  * Query a weak pointer and return either the object passed to
1865  * weakpointerCreate, or null if it was free'd in the meantime.
1866  * If null is passed, null is returned.
1867  */
1868 Object weakpointerGet( void* p )
1869 {
1870     if (p)
1871     {
1872         // NOTE: could avoid the lock by using Fawzi style GC counters but
1873         // that'd require core.sync.Atomic and lots of care about memory
1874         // consistency it's an optional optimization see
1875         // http://dsource.org/projects/tango/browser/trunk/user/tango/core/Lifetime.d?rev=5100#L158
1876         return locked!(Object, () {
1877             return (cast(WeakPointer*)p).reference;
1878         })();
1879         }
1880 }
1881
1882
1883 /* ============================ Pool  =============================== */
1884
1885
1886 struct Pool
1887 {
1888     byte* baseAddr;
1889     byte* topAddr;
1890     GCBits mark;     // entries already scanned, or should not be scanned
1891     GCBits scan;     // entries that need to be scanned
1892     GCBits freebits; // entries that are on the free list
1893     GCBits finals;   // entries that need finalizer run on them
1894     GCBits noscan;   // entries that should not be scanned
1895
1896     size_t npages;
1897     ubyte* pagetable;
1898
1899     /// Cache for findSize()
1900     size_t cached_size;
1901     void* cached_ptr;
1902
1903     void clear_cache(void* ptr = null)
1904     {
1905         if (ptr is null || ptr is this.cached_ptr) {
1906             this.cached_ptr = null;
1907             this.cached_size = 0;
1908         }
1909     }
1910
1911     void update_cache(void* ptr, size_t size)
1912     {
1913         this.cached_ptr = ptr;
1914         this.cached_size = size;
1915     }
1916
1917     void initialize(size_t npages)
1918     {
1919         size_t poolsize = npages * PAGESIZE;
1920         assert(poolsize >= POOLSIZE);
1921         baseAddr = cast(byte *) os.alloc(poolsize);
1922
1923         // Some of the code depends on page alignment of memory pools
1924         assert((cast(size_t)baseAddr & (PAGESIZE - 1)) == 0);
1925
1926         if (!baseAddr)
1927         {
1928             npages = 0;
1929             poolsize = 0;
1930         }
1931         topAddr = baseAddr + poolsize;
1932
1933         size_t nbits = cast(size_t)poolsize / 16;
1934
1935         // if the GC will run in parallel in a fork()ed process, we need to
1936         // share the mark bits
1937         os.Vis vis = os.Vis.PRIV;
1938         if (opts.options.fork)
1939             vis = os.Vis.SHARED;
1940         mark.alloc(nbits, vis); // shared between mark and sweep
1941         freebits.alloc(nbits, vis); // ditto
1942         scan.alloc(nbits); // only used in the mark phase
1943         finals.alloc(nbits); // mark phase *MUST* have a snapshot
1944         noscan.alloc(nbits); // ditto
1945
1946         pagetable = cast(ubyte*) cstdlib.malloc(npages);
1947         if (!pagetable)
1948             onOutOfMemoryError();
1949         memset(pagetable, B_FREE, npages);
1950
1951         this.npages = npages;
1952     }
1953
1954
1955     void Dtor()
1956     {
1957         if (baseAddr)
1958         {
1959             int result;
1960
1961             if (npages)
1962             {
1963                 result = os.dealloc(baseAddr, npages * PAGESIZE);
1964                 assert(result);
1965                 npages = 0;
1966             }
1967
1968             baseAddr = null;
1969             topAddr = null;
1970         }
1971         // See Gcx.Dtor() for the rationale of the null check.
1972         if (pagetable)
1973             cstdlib.free(pagetable);
1974
1975         os.Vis vis = os.Vis.PRIV;
1976         if (opts.options.fork)
1977             vis = os.Vis.SHARED;
1978         mark.Dtor(vis);
1979         freebits.Dtor(vis);
1980         scan.Dtor();
1981         finals.Dtor();
1982         noscan.Dtor();
1983     }
1984
1985
1986     bool Invariant()
1987     {
1988         return true;
1989     }
1990
1991
1992     invariant
1993     {
1994         //mark.Invariant();
1995         //scan.Invariant();
1996         //freebits.Invariant();
1997         //finals.Invariant();
1998         //noscan.Invariant();
1999
2000         if (baseAddr)
2001         {
2002             //if (baseAddr + npages * PAGESIZE != topAddr)
2003                 //printf("baseAddr = %p, npages = %d, topAddr = %p\n", baseAddr, npages, topAddr);
2004             assert(baseAddr + npages * PAGESIZE == topAddr);
2005         }
2006
2007         for (size_t i = 0; i < npages; i++)
2008         {
2009             Bins bin = cast(Bins)pagetable[i];
2010             assert(bin < B_MAX);
2011         }
2012     }
2013
2014
2015     /**
2016      * Allocate n pages from Pool.
2017      * Returns OPFAIL on failure.
2018      */
2019     size_t allocPages(size_t n)
2020     {
2021         size_t i;
2022         size_t n2;
2023
2024         n2 = n;
2025         for (i = 0; i < npages; i++)
2026         {
2027             if (pagetable[i] == B_FREE)
2028             {
2029                 if (--n2 == 0)
2030                     return i - n + 1;
2031             }
2032             else
2033                 n2 = n;
2034         }
2035         return OPFAIL;
2036     }
2037
2038
2039     /**
2040      * Free npages pages starting with pagenum.
2041      */
2042     void freePages(size_t pagenum, size_t npages)
2043     {
2044         memset(&pagetable[pagenum], B_FREE, npages);
2045     }
2046
2047
2048     /**
2049      * Find base address of block containing pointer p.
2050      * Returns null if the pointer doesn't belong to this pool
2051      */
2052     void* findBase(void *p)
2053     {
2054         size_t offset = cast(size_t)(p - this.baseAddr);
2055         size_t pagenum = offset / PAGESIZE;
2056         Bins bin = cast(Bins)this.pagetable[pagenum];
2057         // Adjust bit to be at start of allocated memory block
2058         if (bin <= B_PAGE)
2059             return this.baseAddr + (offset & notbinsize[bin]);
2060         if (bin == B_PAGEPLUS) {
2061             do {
2062                 --pagenum, offset -= PAGESIZE;
2063             } while (cast(Bins)this.pagetable[pagenum] == B_PAGEPLUS);
2064             return this.baseAddr + (offset & (offset.max ^ (PAGESIZE-1)));
2065         }
2066         // we are in a B_FREE page
2067         return null;
2068     }
2069
2070
2071     /**
2072      * Find size of pointer p.
2073      * Returns 0 if p doesn't belong to this pool if if it's block size is less
2074      * than a PAGE.
2075      */
2076     size_t findSize(void *p)
2077     {
2078         size_t pagenum = cast(size_t)(p - this.baseAddr) / PAGESIZE;
2079         Bins bin = cast(Bins)this.pagetable[pagenum];
2080         if (bin != B_PAGE)
2081             return binsize[bin];
2082         if (this.cached_ptr == p)
2083             return this.cached_size;
2084         size_t i = pagenum + 1;
2085         for (; i < this.npages; i++)
2086             if (this.pagetable[i] != B_PAGEPLUS)
2087                 break;
2088         this.cached_ptr = p;
2089         this.cached_size = (i - pagenum) * PAGESIZE;
2090         return this.cached_size;
2091     }
2092
2093
2094     /**
2095      * Used for sorting pools
2096      */
2097     int opCmp(in Pool other)
2098     {
2099         if (baseAddr < other.baseAddr)
2100             return -1;
2101         else
2102         return cast(int)(baseAddr > other.baseAddr);
2103     }
2104 }
2105
2106
2107 /* ============================ SENTINEL =============================== */
2108
2109
2110 const size_t SENTINEL_PRE = cast(size_t) 0xF4F4F4F4F4F4F4F4UL; // 32 or 64 bits
2111 const ubyte SENTINEL_POST = 0xF5;           // 8 bits
2112 const uint SENTINEL_EXTRA = 2 * size_t.sizeof + 1;
2113
2114
2115 size_t* sentinel_size(void *p)  { return &(cast(size_t *)p)[-2]; }
2116 size_t* sentinel_pre(void *p)   { return &(cast(size_t *)p)[-1]; }
2117 ubyte* sentinel_post(void *p) { return &(cast(ubyte *)p)[*sentinel_size(p)]; }
2118
2119
2120 void sentinel_init(void *p, size_t size)
2121 {
2122     *sentinel_size(p) = size;
2123     *sentinel_pre(p) = SENTINEL_PRE;
2124     *sentinel_post(p) = SENTINEL_POST;
2125 }
2126
2127
2128 void sentinel_Invariant(void *p)
2129 {
2130     if (*sentinel_pre(p) != SENTINEL_PRE ||
2131             *sentinel_post(p) != SENTINEL_POST)
2132         cstdlib.abort();
2133 }
2134
2135
2136 void *sentinel_add(void *p)
2137 {
2138     return p + 2 * size_t.sizeof;
2139 }
2140
2141
2142 void *sentinel_sub(void *p)
2143 {
2144     return p - 2 * size_t.sizeof;
2145 }
2146
2147
2148
2149 /* ============================ C Public Interface ======================== */
2150
2151
2152 private int _termCleanupLevel=1;
2153
2154 extern (C):
2155
2156 /// sets the cleanup level done by gc
2157 /// 0: none
2158 /// 1: fullCollect
2159 /// 2: fullCollect ignoring stack roots (might crash daemonThreads)
2160 /// result !=0 if the value was invalid
2161 int gc_setTermCleanupLevel(int cLevel)
2162 {
2163     if (cLevel<0 || cLevel>2) return cLevel;
2164     _termCleanupLevel=cLevel;
2165     return 0;
2166 }
2167
2168 /// returns the cleanup level done by gc
2169 int gc_getTermCleanupLevel()
2170 {
2171     return _termCleanupLevel;
2172 }
2173
2174 void gc_init()
2175 {
2176     scope (exit) assert (Invariant());
2177     gc = cast(GC*) cstdlib.calloc(1, GC.sizeof);
2178     *gc = GC.init;
2179     initialize();
2180     version (DigitalMars) version(OSX) {
2181         _d_osx_image_init();
2182     }
2183     // NOTE: The GC must initialize the thread library
2184     //       before its first collection.
2185     thread_init();
2186 }
2187
2188 void gc_term()
2189 {
2190     assert (Invariant());
2191     if (_termCleanupLevel<1) {
2192         // no cleanup
2193     } else if (_termCleanupLevel==2){
2194         // a more complete cleanup
2195         // NOTE: There may be daemons threads still running when this routine is
2196         //       called.  If so, cleaning memory out from under then is a good
2197         //       way to make them crash horribly.
2198         //       Often this probably doesn't matter much since the app is
2199         //       supposed to be shutting down anyway, but for example tests might
2200         //       crash (and be considerd failed even if the test was ok).
2201         //       thus this is not the default and should be enabled by
2202         //       I'm disabling cleanup for now until I can think about it some
2203         //       more.
2204         //
2205         // not really a 'collect all' -- still scans static data area, roots,
2206         // and ranges.
2207         return locked!(void, () {
2208             gc.no_stack++;
2209             fullcollectshell();
2210             gc.no_stack--;
2211         })();
2212     } else {
2213         // default (safe) clenup
2214         return locked!(void, () {
2215             fullcollectshell();
2216         })();
2217     }
2218 }
2219
2220 void gc_enable()
2221 {
2222     return locked!(void, () {
2223         assert (Invariant()); scope (exit) assert (Invariant());
2224         assert (gc.disabled > 0);
2225         gc.disabled--;
2226     })();
2227 }
2228
2229 void gc_disable()
2230 {
2231     return locked!(void, () {
2232         assert (Invariant()); scope (exit) assert (Invariant());
2233         gc.disabled++;
2234     })();
2235 }
2236
2237 void gc_collect()
2238 {
2239     return locked!(void, () {
2240         assert (Invariant()); scope (exit) assert (Invariant());
2241         fullcollectshell();
2242     })();
2243 }
2244
2245
2246 void gc_minimize()
2247 {
2248     return locked!(void, () {
2249         assert (Invariant()); scope (exit) assert (Invariant());
2250         minimize();
2251     })();
2252 }
2253
2254 uint gc_getAttr(void* p)
2255 {
2256     if (p is null)
2257         return 0;
2258     return locked!(uint, () {
2259         assert (Invariant()); scope (exit) assert (Invariant());
2260         Pool* pool = findPool(p);
2261         if (pool is null)
2262             return 0u;
2263         auto bit_i = cast(size_t)(p - pool.baseAddr) / 16;
2264         return getAttr(pool, bit_i);
2265     })();
2266 }
2267
2268 uint gc_setAttr(void* p, uint attrs)
2269 {
2270     if (p is null)
2271         return 0;
2272     return locked!(uint, () {
2273         assert (Invariant()); scope (exit) assert (Invariant());
2274         Pool* pool = findPool(p);
2275         if (pool is null)
2276             return 0u;
2277         auto bit_i = cast(size_t)(p - pool.baseAddr) / 16;
2278         uint old_attrs = getAttr(pool, bit_i);
2279         setAttr(pool, bit_i, attrs);
2280         return old_attrs;
2281     })();
2282 }
2283
2284 uint gc_clrAttr(void* p, uint attrs)
2285 {
2286     if (p is null)
2287         return 0;
2288     return locked!(uint, () {
2289         assert (Invariant()); scope (exit) assert (Invariant());
2290         Pool* pool = findPool(p);
2291         if (pool is null)
2292             return 0u;
2293         auto bit_i = cast(size_t)(p - pool.baseAddr) / 16;
2294         uint old_attrs = getAttr(pool, bit_i);
2295         clrAttr(pool, bit_i, attrs);
2296         return old_attrs;
2297     })();
2298 }
2299
2300 void* gc_malloc(size_t size, uint attrs = 0,
2301         PointerMap ptrmap = PointerMap.init)
2302 {
2303     if (size == 0)
2304         return null;
2305     return locked!(void*, () {
2306         assert (Invariant()); scope (exit) assert (Invariant());
2307         return malloc(size, attrs, ptrmap.bits.ptr);
2308     })();
2309 }
2310
2311 void* gc_calloc(size_t size, uint attrs = 0,
2312         PointerMap ptrmap = PointerMap.init)
2313 {
2314     if (size == 0)
2315         return null;
2316     return locked!(void*, () {
2317         assert (Invariant()); scope (exit) assert (Invariant());
2318         return calloc(size, attrs, ptrmap.bits.ptr);
2319     })();
2320 }
2321
2322 void* gc_realloc(void* p, size_t size, uint attrs = 0,
2323         PointerMap ptrmap = PointerMap.init)
2324 {
2325     return locked!(void*, () {
2326         assert (Invariant()); scope (exit) assert (Invariant());
2327         return realloc(p, size, attrs, ptrmap.bits.ptr);
2328     })();
2329 }
2330
2331 size_t gc_extend(void* p, size_t min_size, size_t max_size)
2332 {
2333     return locked!(size_t, () {
2334         assert (Invariant()); scope (exit) assert (Invariant());
2335         return extend(p, min_size, max_size);
2336     })();
2337 }
2338
2339 size_t gc_reserve(size_t size)
2340 {
2341     if (size == 0)
2342         return 0;
2343     return locked!(size_t, () {
2344         assert (Invariant()); scope (exit) assert (Invariant());
2345         return reserve(size);
2346     })();
2347 }
2348
2349 void gc_free(void* p)
2350 {
2351     if (p is null)
2352         return;
2353     return locked!(void, () {
2354         assert (Invariant()); scope (exit) assert (Invariant());
2355         free(p);
2356     })();
2357 }
2358
2359 void* gc_addrOf(void* p)
2360 {
2361     if (p is null)
2362         return null;
2363     return locked!(void*, () {
2364         assert (Invariant()); scope (exit) assert (Invariant());
2365         Pool* pool = findPool(p);
2366         if (pool is null)
2367             return null;
2368         return pool.findBase(p);
2369     })();
2370 }
2371
2372 size_t gc_sizeOf(void* p)
2373 {
2374     if (p is null)
2375         return 0;
2376     return locked!(size_t, () {
2377         assert (Invariant()); scope (exit) assert (Invariant());
2378         return sizeOf(p);
2379     })();
2380 }
2381
2382 BlkInfo gc_query(void* p)
2383 {
2384     if (p is null)
2385         return BlkInfo.init;
2386     return locked!(BlkInfo, () {
2387         assert (Invariant()); scope (exit) assert (Invariant());
2388         return getInfo(p);
2389     })();
2390 }
2391
2392 // NOTE: This routine is experimental.  The stats or function name may change
2393 //       before it is made officially available.
2394 GCStats gc_stats()
2395 {
2396     return locked!(GCStats, () {
2397         assert (Invariant()); scope (exit) assert (Invariant());
2398         return getStats();
2399     })();
2400 }
2401
2402 void gc_addRoot(void* p)
2403 {
2404     if (p is null)
2405         return;
2406     return locked!(void, () {
2407         assert (Invariant()); scope (exit) assert (Invariant());
2408         if (gc.roots.append(p) is null)
2409             onOutOfMemoryError();
2410     })();
2411 }
2412
2413 void gc_addRange(void* p, size_t size)
2414 {
2415     if (p is null || size == 0)
2416         return;
2417     return locked!(void, () {
2418         assert (Invariant()); scope (exit) assert (Invariant());
2419         if (gc.ranges.append(Range(p, p + size)) is null)
2420             onOutOfMemoryError();
2421     })();
2422 }
2423
2424 void gc_removeRoot(void* p)
2425 {
2426     if (p is null)
2427         return;
2428     return locked!(void, () {
2429         assert (Invariant()); scope (exit) assert (Invariant());
2430         bool r = gc.roots.remove(p);
2431         assert (r);
2432     })();
2433 }
2434
2435 void gc_removeRange(void* p)
2436 {
2437     if (p is null)
2438         return;
2439     return locked!(void, () {
2440         assert (Invariant()); scope (exit) assert (Invariant());
2441         bool r = gc.ranges.remove(Range(p, null));
2442         assert (r);
2443     })();
2444 }
2445
2446 void* gc_weakpointerCreate(Object r)
2447 {
2448     // weakpointers do their own locking
2449     return weakpointerCreate(r);
2450 }
2451
2452 void gc_weakpointerDestroy(void* wp)
2453 {
2454     // weakpointers do their own locking
2455     weakpointerDestroy(wp);
2456 }
2457
2458 Object gc_weakpointerGet(void* wp)
2459 {
2460     // weakpointers do their own locking
2461     return weakpointerGet(wp);
2462 }
2463
2464
2465 // vim: set et sw=4 sts=4 :