]> git.llucax.com Git - software/dgc/cdgc.git/blob - rt/gc/cdgc/gc.d
Move marking phase to a separate function
[software/dgc/cdgc.git] / rt / gc / cdgc / gc.d
1 /**
2  * This module contains the garbage collector implementation.
3  *
4  * Copyright: Copyright (C) 2001-2007 Digital Mars, www.digitalmars.com.
5  *            All rights reserved.
6  * License:
7  *  This software is provided 'as-is', without any express or implied
8  *  warranty. In no event will the authors be held liable for any damages
9  *  arising from the use of this software.
10  *
11  *  Permission is granted to anyone to use this software for any purpose,
12  *  including commercial applications, and to alter it and redistribute it
13  *  freely, in both source and binary form, subject to the following
14  *  restrictions:
15  *
16  *  o  The origin of this software must not be misrepresented; you must not
17  *     claim that you wrote the original software. If you use this software
18  *     in a product, an acknowledgment in the product documentation would be
19  *     appreciated but is not required.
20  *  o  Altered source versions must be plainly marked as such, and must not
21  *     be misrepresented as being the original software.
22  *  o  This notice may not be removed or altered from any source
23  *     distribution.
24  * Authors:   Walter Bright, David Friedman, Sean Kelly
25  */
26
27 module rt.gc.cdgc.gc;
28
29 // D Programming Language Garbage Collector implementation
30
31 /************** Debugging ***************************/
32
33 //debug = COLLECT_PRINTF;       // turn on printf's
34 //debug = PTRCHECK;             // more pointer checking
35 //debug = PTRCHECK2;            // thorough but slow pointer checking
36
37 /*************** Configuration *********************/
38
39 version = STACKGROWSDOWN;       // growing the stack means subtracting from the stack pointer
40                                 // (use for Intel X86 CPUs)
41                                 // else growing the stack means adding to the stack pointer
42
43 /***************************************************/
44
45 import rt.gc.cdgc.bits: GCBits;
46 import rt.gc.cdgc.stats: GCStats, Stats;
47 import dynarray = rt.gc.cdgc.dynarray;
48 import os = rt.gc.cdgc.os;
49 import opts = rt.gc.cdgc.opts;
50
51 import cstdlib = tango.stdc.stdlib;
52 import cstring = tango.stdc.string;
53
54 /*
55  * This is a small optimization that proved it's usefulness. For small chunks
56  * or memory memset() seems to be slower (probably because of the call) that
57  * simply doing a simple loop to set the memory.
58  */
59 void memset(void* dst, int c, size_t n)
60 {
61     // This number (32) has been determined empirically
62     if (n > 32) {
63         cstring.memset(dst, c, n);
64         return;
65     }
66     auto p = cast(ubyte*)(dst);
67     while (n-- > 0)
68         *p++ = c;
69 }
70
71 version (GNU)
72 {
73     // BUG: The following import will likely not work, since the gcc
74     //      subdirectory is elsewhere.  Instead, perhaps the functions
75     //      could be declared directly or some other resolution could
76     //      be found.
77     static import gcc.builtins; // for __builtin_unwind_int
78 }
79
80 struct BlkInfo
81 {
82     void*  base;
83     size_t size;
84     uint   attr;
85 }
86
87 package enum BlkAttr : uint
88 {
89     FINALIZE = 0b0000_0001,
90     NO_SCAN  = 0b0000_0010,
91     NO_MOVE  = 0b0000_0100,
92     ALL_BITS = 0b1111_1111
93 }
94
95 package bool has_pointermap(uint attrs)
96 {
97     return !opts.options.conservative && !(attrs & BlkAttr.NO_SCAN);
98 }
99
100 private
101 {
102     alias void delegate(Object) DEvent;
103     alias void delegate( void*, void* ) scanFn;
104     enum { OPFAIL = ~cast(size_t)0 }
105
106     extern (C)
107     {
108         version (DigitalMars) version(OSX)
109             oid _d_osx_image_init();
110
111         void* rt_stackBottom();
112         void* rt_stackTop();
113         void rt_finalize( void* p, bool det = true );
114         void rt_attachDisposeEvent(Object h, DEvent e);
115         bool rt_detachDisposeEvent(Object h, DEvent e);
116         void rt_scanStaticData( scanFn scan );
117
118         void thread_init();
119         bool thread_needLock();
120         void thread_suspendAll();
121         void thread_resumeAll();
122         void thread_scanAll( scanFn fn, void* curStackTop = null );
123
124         void onOutOfMemoryError();
125     }
126 }
127
128
129 enum
130 {
131     PAGESIZE =    4096,
132     POOLSIZE =   (4096*256),
133 }
134
135
136 enum
137 {
138     B_16,
139     B_32,
140     B_64,
141     B_128,
142     B_256,
143     B_512,
144     B_1024,
145     B_2048,
146     B_PAGE,             // start of large alloc
147     B_PAGEPLUS,         // continuation of large alloc
148     B_FREE,             // free page
149     B_MAX
150 }
151
152
153 alias ubyte Bins;
154
155
156 struct List
157 {
158     List *next;
159 }
160
161
162 struct Range
163 {
164     void *pbot;
165     void *ptop;
166     int opCmp(in Range other)
167     {
168         if (pbot < other.pbot)
169             return -1;
170         else
171         return cast(int)(pbot > other.pbot);
172     }
173 }
174
175
176 const uint binsize[B_MAX] = [ 16,32,64,128,256,512,1024,2048,4096 ];
177 const uint notbinsize[B_MAX] = [ ~(16u-1),~(32u-1),~(64u-1),~(128u-1),~(256u-1),
178                                 ~(512u-1),~(1024u-1),~(2048u-1),~(4096u-1) ];
179
180
181 /* ============================ GC =============================== */
182
183
184 class GCLock {} // just a dummy so we can get a global lock
185
186
187 struct GC
188 {
189     // global lock
190     ClassInfo lock;
191
192     void* p_cache;
193     size_t size_cache;
194
195     // !=0 means don't scan stack
196     uint no_stack;
197     bool any_changes;
198     void* stack_bottom;
199     uint inited;
200     /// Turn off collections if > 0
201     int disabled;
202
203     /// min(pool.baseAddr)
204     byte *min_addr;
205     /// max(pool.topAddr)
206     byte *max_addr;
207
208     /// Free list for each size
209     List*[B_MAX] free_list;
210
211     dynarray.DynArray!(void*) roots;
212     dynarray.DynArray!(Range) ranges;
213     dynarray.DynArray!(Pool) pools;
214
215     Stats stats;
216 }
217
218 // call locked if necessary
219 private T locked(T, alias Code)()
220 {
221     if (thread_needLock())
222         synchronized (gc.lock) return Code();
223     else
224        return Code();
225 }
226
227 private GC* gc;
228
229 bool Invariant()
230 {
231     assert (gc !is null);
232     if (gc.inited) {
233         for (size_t i = 0; i < gc.pools.length; i++) {
234             Pool* pool = gc.pools[i];
235             pool.Invariant();
236             if (i == 0)
237                 assert(gc.min_addr == pool.baseAddr);
238             if (i + 1 < gc.pools.length)
239                 assert(*pool < gc.pools[i + 1]);
240             else if (i + 1 == gc.pools.length)
241                 assert(gc.max_addr == pool.topAddr);
242         }
243
244         gc.roots.Invariant();
245         gc.ranges.Invariant();
246
247         for (size_t i = 0; i < gc.ranges.length; i++) {
248             assert(gc.ranges[i].pbot);
249             assert(gc.ranges[i].ptop);
250             assert(gc.ranges[i].pbot <= gc.ranges[i].ptop);
251         }
252
253         for (size_t i = 0; i < B_PAGE; i++)
254             for (List *list = gc.free_list[i]; list; list = list.next)
255             {
256             }
257     }
258     return true;
259 }
260
261
262 /**
263  * Find Pool that pointer is in.
264  * Return null if not in a Pool.
265  * Assume pools is sorted.
266  */
267 Pool* findPool(void* p)
268 {
269     if (p < gc.min_addr || p >= gc.max_addr)
270         return null;
271     if (gc.pools.length == 0)
272         return null;
273     if (gc.pools.length == 1)
274         return gc.pools[0];
275     /// The pooltable[] is sorted by address, so do a binary search
276     size_t low = 0;
277     size_t high = gc.pools.length - 1;
278     while (low <= high) {
279         size_t mid = (low + high) / 2;
280         auto pool = gc.pools[mid];
281         if (p < pool.baseAddr)
282             high = mid - 1;
283         else if (p >= pool.topAddr)
284             low = mid + 1;
285         else
286             return pool;
287     }
288     // Not found
289     return null;
290 }
291
292
293 /**
294  * Determine the base address of the block containing p.  If p is not a gc
295  * allocated pointer, return null.
296  */
297 BlkInfo getInfo(void* p)
298 {
299     assert (p !is null);
300     Pool* pool = findPool(p);
301     if (pool is null)
302         return BlkInfo.init;
303     BlkInfo info;
304     info.base = pool.findBase(p);
305     info.size = pool.findSize(info.base);
306     info.attr = getAttr(pool, cast(size_t)(info.base - pool.baseAddr) / 16u);
307     if (has_pointermap(info.attr)) {
308         info.size -= size_t.sizeof; // PointerMap bitmask
309         // Points to the PointerMap bitmask pointer, not user data
310         if (p >= (info.base + info.size)) {
311             return BlkInfo.init;
312         }
313     }
314     if (opts.options.sentinel) {
315         info.base = sentinel_add(info.base);
316         // points to sentinel data, not user data
317         if (p < info.base || p >= sentinel_post(info.base))
318             return BlkInfo.init;
319         info.size -= SENTINEL_EXTRA;
320     }
321     return info;
322 }
323
324
325 /**
326  * Compute bin for size.
327  */
328 Bins findBin(size_t size)
329 {
330     Bins bin;
331     if (size <= 256)
332     {
333         if (size <= 64)
334         {
335             if (size <= 16)
336                 bin = B_16;
337             else if (size <= 32)
338                 bin = B_32;
339             else
340                 bin = B_64;
341         }
342         else
343         {
344             if (size <= 128)
345                 bin = B_128;
346             else
347                 bin = B_256;
348         }
349     }
350     else
351     {
352         if (size <= 1024)
353         {
354             if (size <= 512)
355                 bin = B_512;
356             else
357                 bin = B_1024;
358         }
359         else
360         {
361             if (size <= 2048)
362                 bin = B_2048;
363             else
364                 bin = B_PAGE;
365         }
366     }
367     return bin;
368 }
369
370
371 /**
372  * Allocate a new pool of at least size bytes.
373  * Sort it into pools.
374  * Mark all memory in the pool as B_FREE.
375  * Return the actual number of bytes reserved or 0 on error.
376  */
377 size_t reserve(size_t size)
378 {
379     assert(size != 0);
380     size_t npages = (size + PAGESIZE - 1) / PAGESIZE;
381     Pool*  pool = newPool(npages);
382
383     if (!pool)
384         return 0;
385     return pool.npages * PAGESIZE;
386 }
387
388
389 /**
390  * Minimizes physical memory usage by returning free pools to the OS.
391  */
392 void minimize()
393 {
394     size_t n;
395     size_t pn;
396     Pool*  pool;
397
398     for (n = 0; n < gc.pools.length; n++)
399     {
400         pool = gc.pools[n];
401         for (pn = 0; pn < pool.npages; pn++)
402         {
403             if (cast(Bins)pool.pagetable[pn] != B_FREE)
404                 break;
405         }
406         if (pn < pool.npages)
407             continue;
408         pool.Dtor();
409         gc.pools.remove_at(n);
410         n--;
411     }
412     gc.min_addr = gc.pools[0].baseAddr;
413     gc.max_addr = gc.pools[gc.pools.length - 1].topAddr;
414 }
415
416
417 /**
418  * Allocate a chunk of memory that is larger than a page.
419  * Return null if out of memory.
420  */
421 void *bigAlloc(size_t size)
422 {
423     Pool*  pool;
424     size_t npages;
425     size_t n;
426     size_t pn;
427     size_t freedpages;
428     void*  p;
429     int    state;
430
431     npages = (size + PAGESIZE - 1) / PAGESIZE;
432
433     for (state = 0; ; )
434     {
435         // This code could use some refinement when repeatedly
436         // allocating very large arrays.
437
438         for (n = 0; n < gc.pools.length; n++)
439         {
440             pool = gc.pools[n];
441             pn = pool.allocPages(npages);
442             if (pn != OPFAIL)
443                 goto L1;
444         }
445
446         // Failed
447         switch (state)
448         {
449         case 0:
450             if (gc.disabled)
451             {
452                 state = 1;
453                 continue;
454             }
455             // Try collecting
456             freedpages = fullcollectshell();
457             if (freedpages >= gc.pools.length * ((POOLSIZE / PAGESIZE) / 4))
458             {
459                 state = 1;
460                 continue;
461             }
462             // Release empty pools to prevent bloat
463             minimize();
464             // Allocate new pool
465             pool = newPool(npages);
466             if (!pool)
467             {
468                 state = 2;
469                 continue;
470             }
471             pn = pool.allocPages(npages);
472             assert(pn != OPFAIL);
473             goto L1;
474         case 1:
475             // Release empty pools to prevent bloat
476             minimize();
477             // Allocate new pool
478             pool = newPool(npages);
479             if (!pool)
480                 goto Lnomemory;
481             pn = pool.allocPages(npages);
482             assert(pn != OPFAIL);
483             goto L1;
484         case 2:
485             goto Lnomemory;
486         default:
487             assert(false);
488         }
489     }
490
491   L1:
492     pool.pagetable[pn] = B_PAGE;
493     if (npages > 1)
494         memset(&pool.pagetable[pn + 1], B_PAGEPLUS, npages - 1);
495     p = pool.baseAddr + pn * PAGESIZE;
496     memset(cast(char *)p + size, 0, npages * PAGESIZE - size);
497     if (opts.options.mem_stomp)
498         memset(p, 0xF1, size);
499     return p;
500
501   Lnomemory:
502     return null; // let mallocNoSync handle the error
503 }
504
505
506 /**
507  * Allocate a new pool with at least npages in it.
508  * Sort it into pools.
509  * Return null if failed.
510  */
511 Pool *newPool(size_t npages)
512 {
513     // Minimum of POOLSIZE
514     if (npages < POOLSIZE/PAGESIZE)
515         npages = POOLSIZE/PAGESIZE;
516     else if (npages > POOLSIZE/PAGESIZE)
517     {
518         // Give us 150% of requested size, so there's room to extend
519         auto n = npages + (npages >> 1);
520         if (n < size_t.max/PAGESIZE)
521             npages = n;
522     }
523
524     // Allocate successively larger pools up to 8 megs
525     if (gc.pools.length)
526     {
527         size_t n = gc.pools.length;
528         if (n > 8)
529             n = 8;                  // cap pool size at 8 megs
530         n *= (POOLSIZE / PAGESIZE);
531         if (npages < n)
532             npages = n;
533     }
534
535     Pool p;
536     p.initialize(npages);
537     if (!p.baseAddr)
538     {
539         p.Dtor();
540         return null;
541     }
542
543     Pool* pool = gc.pools.insert_sorted(p);
544     if (pool)
545     {
546         gc.min_addr = gc.pools[0].baseAddr;
547         gc.max_addr = gc.pools[gc.pools.length - 1].topAddr;
548     }
549     return pool;
550 }
551
552
553 /**
554  * Allocate a page of bin's.
555  * Returns:
556  *  0       failed
557  */
558 int allocPage(Bins bin)
559 {
560     Pool*  pool;
561     size_t n;
562     size_t pn;
563     byte*  p;
564     byte*  ptop;
565
566     for (n = 0; n < gc.pools.length; n++)
567     {
568         pool = gc.pools[n];
569         pn = pool.allocPages(1);
570         if (pn != OPFAIL)
571             goto L1;
572     }
573     return 0;               // failed
574
575   L1:
576     pool.pagetable[pn] = cast(ubyte)bin;
577
578     // Convert page to free list
579     size_t size = binsize[bin];
580     List **b = &gc.free_list[bin];
581
582     p = pool.baseAddr + pn * PAGESIZE;
583     ptop = p + PAGESIZE;
584     for (; p < ptop; p += size)
585     {
586         (cast(List *)p).next = *b;
587         *b = cast(List *)p;
588     }
589     return 1;
590 }
591
592
593 /**
594  * Search a range of memory values and mark any pointers into the GC pool using
595  * type information (bitmask of pointer locations).
596  */
597 void mark_range(void *pbot, void *ptop, size_t* pm_bitmask)
598 {
599     // TODO: make our own assert because assert uses the GC
600     assert (pbot <= ptop);
601
602     const BITS_PER_WORD = size_t.sizeof * 8;
603
604     void **p1 = cast(void **)pbot;
605     void **p2 = cast(void **)ptop;
606     size_t pcache = 0;
607     uint changes = 0;
608
609     size_t type_size = pm_bitmask[0];
610     size_t* pm_bits = pm_bitmask + 1;
611     bool has_type_info = type_size != 1 || pm_bits[0] != 1 || pm_bits[1] != 0;
612
613     //printf("marking range: %p -> %p\n", pbot, ptop);
614     for (; p1 + type_size <= p2; p1 += type_size) {
615         for (size_t n = 0; n < type_size; n++) {
616             // scan bit set for this word
617             if (has_type_info &&
618                     !(pm_bits[n / BITS_PER_WORD] & (1 << (n % BITS_PER_WORD))))
619                 continue;
620
621             void* p = *(p1 + n);
622
623             if (p < gc.min_addr || p >= gc.max_addr)
624                 continue;
625
626             if ((cast(size_t)p & ~(PAGESIZE-1)) == pcache)
627                 continue;
628
629             Pool* pool = findPool(p);
630             if (pool)
631             {
632                 size_t offset = cast(size_t)(p - pool.baseAddr);
633                 size_t bit_i;
634                 size_t pn = offset / PAGESIZE;
635                 Bins   bin = cast(Bins)pool.pagetable[pn];
636
637                 // Adjust bit to be at start of allocated memory block
638                 if (bin <= B_PAGE)
639                     bit_i = (offset & notbinsize[bin]) >> 4;
640                 else if (bin == B_PAGEPLUS)
641                 {
642                     do
643                     {
644                         --pn;
645                     }
646                     while (cast(Bins)pool.pagetable[pn] == B_PAGEPLUS);
647                     bit_i = pn * (PAGESIZE / 16);
648                 }
649                 else
650                 {
651                     // Don't mark bits in B_FREE pages
652                     continue;
653                 }
654
655                 if (bin >= B_PAGE) // Cache B_PAGE and B_PAGEPLUS lookups
656                     pcache = cast(size_t)p & ~(PAGESIZE-1);
657
658                 if (!pool.mark.test(bit_i))
659                 {
660                     pool.mark.set(bit_i);
661                     if (!pool.noscan.test(bit_i))
662                     {
663                         pool.scan.set(bit_i);
664                         changes = 1;
665                     }
666                 }
667             }
668         }
669     }
670     if (changes)
671         gc.any_changes = true;
672 }
673
674 /**
675  * Return number of full pages free'd.
676  */
677 size_t fullcollectshell()
678 {
679     gc.stats.collection_started();
680     scope (exit)
681         gc.stats.collection_finished();
682
683     // The purpose of the 'shell' is to ensure all the registers
684     // get put on the stack so they'll be scanned
685     void *sp;
686     size_t result;
687     version (GNU)
688     {
689         gcc.builtins.__builtin_unwind_init();
690         sp = & sp;
691     }
692     else version(LDC)
693     {
694         version(X86)
695         {
696             uint eax,ecx,edx,ebx,ebp,esi,edi;
697             asm
698             {
699                 mov eax[EBP], EAX      ;
700                 mov ecx[EBP], ECX      ;
701                 mov edx[EBP], EDX      ;
702                 mov ebx[EBP], EBX      ;
703                 mov ebp[EBP], EBP      ;
704                 mov esi[EBP], ESI      ;
705                 mov edi[EBP], EDI      ;
706                 mov  sp[EBP], ESP      ;
707             }
708         }
709         else version (X86_64)
710         {
711             ulong rax,rbx,rcx,rdx,rbp,rsi,rdi,r8,r9,r10,r11,r12,r13,r14,r15;
712             asm
713             {
714                 movq rax[RBP], RAX      ;
715                 movq rbx[RBP], RBX      ;
716                 movq rcx[RBP], RCX      ;
717                 movq rdx[RBP], RDX      ;
718                 movq rbp[RBP], RBP      ;
719                 movq rsi[RBP], RSI      ;
720                 movq rdi[RBP], RDI      ;
721                 movq r8 [RBP], R8       ;
722                 movq r9 [RBP], R9       ;
723                 movq r10[RBP], R10      ;
724                 movq r11[RBP], R11      ;
725                 movq r12[RBP], R12      ;
726                 movq r13[RBP], R13      ;
727                 movq r14[RBP], R14      ;
728                 movq r15[RBP], R15      ;
729                 movq  sp[RBP], RSP      ;
730             }
731         }
732         else
733         {
734             static assert( false, "Architecture not supported." );
735         }
736     }
737     else
738     {
739     asm
740     {
741         pushad              ;
742         mov sp[EBP],ESP     ;
743     }
744     }
745     result = fullcollect(sp);
746     version (GNU)
747     {
748         // nothing to do
749     }
750     else version(LDC)
751     {
752         // nothing to do
753     }
754     else
755     {
756     asm
757     {
758         popad               ;
759     }
760     }
761     return result;
762 }
763
764
765 /**
766  *
767  */
768 size_t fullcollect(void *stackTop)
769 {
770     debug(COLLECT_PRINTF) printf("Gcx.fullcollect()\n");
771     mark(stackTop);
772     return sweep();
773 }
774
775
776 /**
777  *
778  */
779 void mark(void *stackTop)
780 {
781     debug(COLLECT_PRINTF) printf("\tmark()\n");
782
783     thread_suspendAll();
784     gc.stats.world_stopped();
785
786     gc.p_cache = null;
787     gc.size_cache = 0;
788
789     gc.any_changes = false;
790     for (size_t n = 0; n < gc.pools.length; n++)
791     {
792         Pool* pool = gc.pools[n];
793         pool.mark.zero();
794         pool.scan.zero();
795         pool.freebits.zero();
796     }
797
798     // Mark each free entry, so it doesn't get scanned
799     for (size_t n = 0; n < B_PAGE; n++)
800     {
801         for (List *list = gc.free_list[n]; list; list = list.next)
802         {
803             Pool* pool = findPool(list);
804             assert(pool);
805             pool.freebits.set(cast(size_t)(cast(byte*)list - pool.baseAddr) / 16);
806         }
807     }
808
809     for (size_t n = 0; n < gc.pools.length; n++)
810     {
811         Pool* pool = gc.pools[n];
812         pool.mark.copy(&pool.freebits);
813     }
814
815     /// Marks a range of memory in conservative mode.
816     void mark_conservative_range(void* pbot, void* ptop)
817     {
818         mark_range(pbot, ptop, PointerMap.init.bits.ptr);
819     }
820
821     rt_scanStaticData(&mark_conservative_range);
822
823     if (!gc.no_stack)
824     {
825         // Scan stacks and registers for each paused thread
826         thread_scanAll(&mark_conservative_range, stackTop);
827     }
828
829     // Scan roots
830     debug(COLLECT_PRINTF) printf("scan roots[]\n");
831     mark_conservative_range(gc.roots.ptr, gc.roots.ptr + gc.roots.length);
832
833     // Scan ranges
834     debug(COLLECT_PRINTF) printf("scan ranges[]\n");
835     for (size_t n = 0; n < gc.ranges.length; n++)
836     {
837         debug(COLLECT_PRINTF) printf("\t%x .. %x\n", gc.ranges[n].pbot, gc.ranges[n].ptop);
838         mark_conservative_range(gc.ranges[n].pbot, gc.ranges[n].ptop);
839     }
840
841     debug(COLLECT_PRINTF) printf("\tscan heap\n");
842     while (gc.any_changes)
843     {
844         gc.any_changes = false;
845         for (size_t n = 0; n < gc.pools.length; n++)
846         {
847             uint *bbase;
848             uint *b;
849             uint *btop;
850
851             Pool* pool = gc.pools[n];
852
853             bbase = pool.scan.base();
854             btop = bbase + pool.scan.nwords;
855             for (b = bbase; b < btop;)
856             {
857                 Bins   bin;
858                 size_t pn;
859                 size_t u;
860                 size_t bitm;
861                 byte*  o;
862
863                 bitm = *b;
864                 if (!bitm)
865                 {
866                     b++;
867                     continue;
868                 }
869                 *b = 0;
870
871                 o = pool.baseAddr + (b - bbase) * 32 * 16;
872                 if (!(bitm & 0xFFFF))
873                 {
874                     bitm >>= 16;
875                     o += 16 * 16;
876                 }
877                 for (; bitm; o += 16, bitm >>= 1)
878                 {
879                     if (!(bitm & 1))
880                         continue;
881
882                     pn = cast(size_t)(o - pool.baseAddr) / PAGESIZE;
883                     bin = cast(Bins)pool.pagetable[pn];
884                     if (bin < B_PAGE) {
885                         if (opts.options.conservative)
886                             mark_conservative_range(o, o + binsize[bin]);
887                         else {
888                             auto end_of_blk = cast(size_t**)(o +
889                                     binsize[bin] - size_t.sizeof);
890                             size_t* pm_bitmask = *end_of_blk;
891                             mark_range(o, end_of_blk, pm_bitmask);
892                         }
893                     }
894                     else if (bin == B_PAGE || bin == B_PAGEPLUS)
895                     {
896                         if (bin == B_PAGEPLUS)
897                         {
898                             while (pool.pagetable[pn - 1] != B_PAGE)
899                                 pn--;
900                         }
901                         u = 1;
902                         while (pn + u < pool.npages &&
903                                 pool.pagetable[pn + u] == B_PAGEPLUS)
904                             u++;
905
906                         size_t blk_size = u * PAGESIZE;
907                         if (opts.options.conservative)
908                             mark_conservative_range(o, o + blk_size);
909                         else {
910                             auto end_of_blk = cast(size_t**)(o + blk_size -
911                                     size_t.sizeof);
912                             size_t* pm_bitmask = *end_of_blk;
913                             mark_range(o, end_of_blk, pm_bitmask);
914                         }
915                     }
916                 }
917             }
918         }
919     }
920
921     thread_resumeAll();
922     gc.stats.world_started();
923 }
924
925
926 /**
927  *
928  */
929 size_t sweep()
930 {
931     // Free up everything not marked
932     debug(COLLECT_PRINTF) printf("\tsweep\n");
933     size_t freedpages = 0;
934     size_t freed = 0;
935     for (size_t n = 0; n < gc.pools.length; n++)
936     {
937         Pool* pool = gc.pools[n];
938         pool.clear_cache();
939         uint*  bbase = pool.mark.base();
940         size_t pn;
941         for (pn = 0; pn < pool.npages; pn++, bbase += PAGESIZE / (32 * 16))
942         {
943             Bins bin = cast(Bins)pool.pagetable[pn];
944
945             if (bin < B_PAGE)
946             {
947                 auto size = binsize[bin];
948                 byte* p = pool.baseAddr + pn * PAGESIZE;
949                 byte* ptop = p + PAGESIZE;
950                 size_t bit_i = pn * (PAGESIZE/16);
951                 size_t bit_stride = size / 16;
952
953 version(none) // BUG: doesn't work because freebits() must also be cleared
954 {
955                 // If free'd entire page
956                 if (bbase[0] == 0 && bbase[1] == 0 && bbase[2] == 0 &&
957                         bbase[3] == 0 && bbase[4] == 0 && bbase[5] == 0 &&
958                         bbase[6] == 0 && bbase[7] == 0)
959                 {
960                     for (; p < ptop; p += size, bit_i += bit_stride)
961                     {
962                         if (pool.finals.nbits && pool.finals.testClear(bit_i)) {
963                             if (opts.options.sentinel)
964                                 rt_finalize(cast(List *)sentinel_add(p), false/*gc.no_stack > 0*/);
965                             else
966                                 rt_finalize(cast(List *)p, false/*gc.no_stack > 0*/);
967                         }
968                         clrAttr(pool, bit_i, BlkAttr.ALL_BITS);
969
970                         List *list = cast(List *)p;
971
972                         if (opts.options.mem_stomp)
973                             memset(p, 0xF3, size);
974                     }
975                     pool.pagetable[pn] = B_FREE;
976                     freed += PAGESIZE;
977                     continue;
978                 }
979 }
980                 for (; p < ptop; p += size, bit_i += bit_stride)
981                 {
982                     if (!pool.mark.test(bit_i))
983                     {
984                         if (opts.options.sentinel)
985                             sentinel_Invariant(sentinel_add(p));
986
987                         pool.freebits.set(bit_i);
988                         if (pool.finals.nbits && pool.finals.testClear(bit_i)) {
989                             if (opts.options.sentinel)
990                                 rt_finalize(cast(List *)sentinel_add(p), false/*gc.no_stack > 0*/);
991                             else
992                                 rt_finalize(cast(List *)p, false/*gc.no_stack > 0*/);
993                         }
994                         clrAttr(pool, bit_i, BlkAttr.ALL_BITS);
995
996                         List *list = cast(List *)p;
997
998                         if (opts.options.mem_stomp)
999                             memset(p, 0xF3, size);
1000
1001                         freed += size;
1002                     }
1003                 }
1004             }
1005             else if (bin == B_PAGE)
1006             {
1007                 size_t bit_i = pn * (PAGESIZE / 16);
1008                 if (!pool.mark.test(bit_i))
1009                 {
1010                     byte *p = pool.baseAddr + pn * PAGESIZE;
1011                     if (opts.options.sentinel)
1012                         sentinel_Invariant(sentinel_add(p));
1013                     if (pool.finals.nbits && pool.finals.testClear(bit_i)) {
1014                         if (opts.options.sentinel)
1015                             rt_finalize(sentinel_add(p), false/*gc.no_stack > 0*/);
1016                         else
1017                             rt_finalize(p, false/*gc.no_stack > 0*/);
1018                     }
1019                     clrAttr(pool, bit_i, BlkAttr.ALL_BITS);
1020
1021                     debug(COLLECT_PRINTF) printf("\tcollecting big %x\n", p);
1022                     pool.pagetable[pn] = B_FREE;
1023                     freedpages++;
1024                     if (opts.options.mem_stomp)
1025                         memset(p, 0xF3, PAGESIZE);
1026                     while (pn + 1 < pool.npages && pool.pagetable[pn + 1] == B_PAGEPLUS)
1027                     {
1028                         pn++;
1029                         pool.pagetable[pn] = B_FREE;
1030                         freedpages++;
1031
1032                         if (opts.options.mem_stomp)
1033                         {
1034                             p += PAGESIZE;
1035                             memset(p, 0xF3, PAGESIZE);
1036                         }
1037                     }
1038                 }
1039             }
1040         }
1041     }
1042
1043     // Zero buckets
1044     gc.free_list[] = null;
1045
1046     // Free complete pages, rebuild free list
1047     debug(COLLECT_PRINTF) printf("\tfree complete pages\n");
1048     size_t recoveredpages = 0;
1049     for (size_t n = 0; n < gc.pools.length; n++)
1050     {
1051         Pool* pool = gc.pools[n];
1052         for (size_t pn = 0; pn < pool.npages; pn++)
1053         {
1054             Bins   bin = cast(Bins)pool.pagetable[pn];
1055             size_t bit_i;
1056             size_t u;
1057
1058             if (bin < B_PAGE)
1059             {
1060                 size_t size = binsize[bin];
1061                 size_t bit_stride = size / 16;
1062                 size_t bit_base = pn * (PAGESIZE / 16);
1063                 size_t bit_top = bit_base + (PAGESIZE / 16);
1064                 byte*  p;
1065
1066                 bit_i = bit_base;
1067                 for (; bit_i < bit_top; bit_i += bit_stride)
1068                 {
1069                     if (!pool.freebits.test(bit_i))
1070                         goto Lnotfree;
1071                 }
1072                 pool.pagetable[pn] = B_FREE;
1073                 recoveredpages++;
1074                 continue;
1075
1076              Lnotfree:
1077                 p = pool.baseAddr + pn * PAGESIZE;
1078                 for (u = 0; u < PAGESIZE; u += size)
1079                 {
1080                     bit_i = bit_base + u / 16;
1081                     if (pool.freebits.test(bit_i))
1082                     {
1083                         List *list = cast(List *)(p + u);
1084                         // avoid unnecessary writes
1085                         if (list.next != gc.free_list[bin])
1086                             list.next = gc.free_list[bin];
1087                         gc.free_list[bin] = list;
1088                     }
1089                 }
1090             }
1091         }
1092     }
1093
1094     debug(COLLECT_PRINTF) printf("recovered pages = %d\n", recoveredpages);
1095     debug(COLLECT_PRINTF) printf("\tfree'd %u bytes, %u pages from %u pools\n", freed, freedpages, gc.pools.length);
1096
1097     return freedpages + recoveredpages;
1098 }
1099
1100
1101 /**
1102  *
1103  */
1104 uint getAttr(Pool* pool, size_t bit_i)
1105 in
1106 {
1107     assert( pool );
1108 }
1109 body
1110 {
1111     uint attrs;
1112
1113     if (pool.finals.nbits &&
1114         pool.finals.test(bit_i))
1115         attrs |= BlkAttr.FINALIZE;
1116     if (pool.noscan.test(bit_i))
1117         attrs |= BlkAttr.NO_SCAN;
1118 //        if (pool.nomove.nbits &&
1119 //            pool.nomove.test(bit_i))
1120 //            attrs |= BlkAttr.NO_MOVE;
1121     return attrs;
1122 }
1123
1124
1125 /**
1126  *
1127  */
1128 void setAttr(Pool* pool, size_t bit_i, uint mask)
1129 in
1130 {
1131     assert( pool );
1132 }
1133 body
1134 {
1135     if (mask & BlkAttr.FINALIZE)
1136     {
1137         if (!pool.finals.nbits)
1138             pool.finals.alloc(pool.mark.nbits);
1139         pool.finals.set(bit_i);
1140     }
1141     if (mask & BlkAttr.NO_SCAN)
1142     {
1143         pool.noscan.set(bit_i);
1144     }
1145 //        if (mask & BlkAttr.NO_MOVE)
1146 //        {
1147 //            if (!pool.nomove.nbits)
1148 //                pool.nomove.alloc(pool.mark.nbits);
1149 //            pool.nomove.set(bit_i);
1150 //        }
1151 }
1152
1153
1154 /**
1155  *
1156  */
1157 void clrAttr(Pool* pool, size_t bit_i, uint mask)
1158 in
1159 {
1160     assert( pool );
1161 }
1162 body
1163 {
1164     if (mask & BlkAttr.FINALIZE && pool.finals.nbits)
1165         pool.finals.clear(bit_i);
1166     if (mask & BlkAttr.NO_SCAN)
1167         pool.noscan.clear(bit_i);
1168 //        if (mask & BlkAttr.NO_MOVE && pool.nomove.nbits)
1169 //            pool.nomove.clear(bit_i);
1170 }
1171
1172
1173
1174 void initialize()
1175 {
1176     int dummy;
1177     gc.stack_bottom = cast(char*)&dummy;
1178     opts.parse(cstdlib.getenv("D_GC_OPTS"));
1179     gc.lock = GCLock.classinfo;
1180     gc.inited = 1;
1181     setStackBottom(rt_stackBottom());
1182     gc.stats = Stats(gc);
1183 }
1184
1185
1186 //
1187 //
1188 //
1189 private void *malloc(size_t size, uint attrs, size_t* pm_bitmask)
1190 {
1191     assert(size != 0);
1192
1193     gc.stats.malloc_started(size, attrs, pm_bitmask);
1194     scope (exit)
1195         gc.stats.malloc_finished(p);
1196
1197     void *p = null;
1198     Bins bin;
1199
1200     if (opts.options.sentinel)
1201         size += SENTINEL_EXTRA;
1202
1203     bool has_pm = has_pointermap(attrs);
1204     if (has_pm)
1205         size += size_t.sizeof;
1206
1207     // Compute size bin
1208     // Cache previous binsize lookup - Dave Fladebo.
1209     static size_t lastsize = -1;
1210     static Bins lastbin;
1211     if (size == lastsize)
1212         bin = lastbin;
1213     else
1214     {
1215         bin = findBin(size);
1216         lastsize = size;
1217         lastbin = bin;
1218     }
1219
1220     size_t capacity; // to figure out where to store the bitmask
1221     if (bin < B_PAGE)
1222     {
1223         p = gc.free_list[bin];
1224         if (p is null)
1225         {
1226             if (!allocPage(bin) && !gc.disabled)   // try to find a new page
1227             {
1228                 if (!thread_needLock())
1229                 {
1230                     /* Then we haven't locked it yet. Be sure
1231                      * and gc.lock for a collection, since a finalizer
1232                      * may start a new thread.
1233                      */
1234                     synchronized (gc.lock)
1235                     {
1236                         fullcollectshell();
1237                     }
1238                 }
1239                 else if (!fullcollectshell())       // collect to find a new page
1240                 {
1241                     //newPool(1);
1242                 }
1243             }
1244             if (!gc.free_list[bin] && !allocPage(bin))
1245             {
1246                 newPool(1);         // allocate new pool to find a new page
1247                 int result = allocPage(bin);
1248                 if (!result)
1249                     onOutOfMemoryError();
1250             }
1251             p = gc.free_list[bin];
1252         }
1253         capacity = binsize[bin];
1254
1255         // Return next item from free list
1256         gc.free_list[bin] = (cast(List*)p).next;
1257         if (!(attrs & BlkAttr.NO_SCAN))
1258             memset(p + size, 0, capacity - size);
1259         if (opts.options.mem_stomp)
1260             memset(p, 0xF0, size);
1261     }
1262     else
1263     {
1264         p = bigAlloc(size);
1265         if (!p)
1266             onOutOfMemoryError();
1267         // Round the size up to the number of pages needed to store it
1268         size_t npages = (size + PAGESIZE - 1) / PAGESIZE;
1269         capacity = npages * PAGESIZE;
1270     }
1271
1272     // Store the bit mask AFTER SENTINEL_POST
1273     // TODO: store it BEFORE, so the bitmask is protected too
1274     if (has_pm) {
1275         auto end_of_blk = cast(size_t**)(p + capacity - size_t.sizeof);
1276         *end_of_blk = pm_bitmask;
1277         size -= size_t.sizeof;
1278     }
1279
1280     if (opts.options.sentinel) {
1281         size -= SENTINEL_EXTRA;
1282         p = sentinel_add(p);
1283         sentinel_init(p, size);
1284     }
1285
1286     if (attrs)
1287     {
1288         Pool *pool = findPool(p);
1289         assert(pool);
1290
1291         setAttr(pool, cast(size_t)(p - pool.baseAddr) / 16, attrs);
1292     }
1293     return p;
1294 }
1295
1296
1297 //
1298 //
1299 //
1300 private void *calloc(size_t size, uint attrs, size_t* pm_bitmask)
1301 {
1302     assert(size != 0);
1303
1304     void *p = malloc(size, attrs, pm_bitmask);
1305     memset(p, 0, size);
1306     return p;
1307 }
1308
1309
1310 //
1311 //
1312 //
1313 private void *realloc(void *p, size_t size, uint attrs,
1314         size_t* pm_bitmask)
1315 {
1316     if (!size)
1317     {
1318         if (p)
1319         {
1320             free(p);
1321             p = null;
1322         }
1323     }
1324     else if (!p)
1325     {
1326         p = malloc(size, attrs, pm_bitmask);
1327     }
1328     else
1329     {
1330         Pool* pool = findPool(p);
1331         if (pool is null)
1332             return null;
1333
1334         // Set or retrieve attributes as appropriate
1335         auto bit_i = cast(size_t)(p - pool.baseAddr) / 16;
1336         if (attrs) {
1337             clrAttr(pool, bit_i, BlkAttr.ALL_BITS);
1338             setAttr(pool, bit_i, attrs);
1339         }
1340         else
1341             attrs = getAttr(pool, bit_i);
1342
1343         void* blk_base_addr = pool.findBase(p);
1344         size_t blk_size = pool.findSize(p);
1345         bool has_pm = has_pointermap(attrs);
1346         size_t pm_bitmask_size = 0;
1347         if (has_pm) {
1348             pm_bitmask_size = size_t.sizeof;
1349             // Retrieve pointer map bit mask if appropriate
1350             if (pm_bitmask is null) {
1351                 auto end_of_blk = cast(size_t**)(blk_base_addr +
1352                         blk_size - size_t.sizeof);
1353                 pm_bitmask = *end_of_blk;
1354             }
1355         }
1356
1357         if (opts.options.sentinel)
1358         {
1359             sentinel_Invariant(p);
1360             size_t sentinel_stored_size = *sentinel_size(p);
1361             if (sentinel_stored_size != size)
1362             {
1363                 void* p2 = malloc(size, attrs, pm_bitmask);
1364                 if (sentinel_stored_size < size)
1365                     size = sentinel_stored_size;
1366                 cstring.memcpy(p2, p, size);
1367                 p = p2;
1368             }
1369         }
1370         else
1371         {
1372             size += pm_bitmask_size;
1373             if (blk_size >= PAGESIZE && size >= PAGESIZE)
1374             {
1375                 auto psz = blk_size / PAGESIZE;
1376                 auto newsz = (size + PAGESIZE - 1) / PAGESIZE;
1377                 if (newsz == psz)
1378                     return p;
1379
1380                 auto pagenum = (p - pool.baseAddr) / PAGESIZE;
1381
1382                 if (newsz < psz)
1383                 {
1384                     // Shrink in place
1385                     if (opts.options.mem_stomp)
1386                         memset(p + size - pm_bitmask_size, 0xF2,
1387                                 blk_size - size - pm_bitmask_size);
1388                     pool.freePages(pagenum + newsz, psz - newsz);
1389                     if (has_pm) {
1390                         auto end_of_blk = cast(size_t**)(
1391                                 blk_base_addr + (PAGESIZE * newsz) -
1392                                 pm_bitmask_size);
1393                         *end_of_blk = pm_bitmask;
1394                     }
1395                     return p;
1396                 }
1397                 else if (pagenum + newsz <= pool.npages)
1398                 {
1399                     // Attempt to expand in place
1400                     for (size_t i = pagenum + psz; 1;)
1401                     {
1402                         if (i == pagenum + newsz)
1403                         {
1404                             if (opts.options.mem_stomp)
1405                                 memset(p + blk_size - pm_bitmask_size,
1406                                         0xF0, size - blk_size
1407                                         - pm_bitmask_size);
1408                             memset(pool.pagetable + pagenum +
1409                                     psz, B_PAGEPLUS, newsz - psz);
1410                             if (has_pm) {
1411                                 auto end_of_blk = cast(size_t**)(
1412                                         blk_base_addr +
1413                                         (PAGESIZE * newsz) -
1414                                         pm_bitmask_size);
1415                                 *end_of_blk = pm_bitmask;
1416                             }
1417                             return p;
1418                         }
1419                         if (i == pool.npages)
1420                         {
1421                             break;
1422                         }
1423                         if (pool.pagetable[i] != B_FREE)
1424                             break;
1425                         i++;
1426                     }
1427                 }
1428             }
1429             // if new size is bigger or less than half
1430             if (blk_size < size || blk_size > size * 2)
1431             {
1432                 size -= pm_bitmask_size;
1433                 blk_size -= pm_bitmask_size;
1434                 void* p2 = malloc(size, attrs, pm_bitmask);
1435                 if (blk_size < size)
1436                     size = blk_size;
1437                 cstring.memcpy(p2, p, size);
1438                 p = p2;
1439             }
1440         }
1441     }
1442     return p;
1443 }
1444
1445
1446 /**
1447  * Attempt to in-place enlarge the memory block pointed to by p by at least
1448  * min_size beyond its current capacity, up to a maximum of max_size.  This
1449  * does not attempt to move the memory block (like realloc() does).
1450  *
1451  * Returns:
1452  *  0 if could not extend p,
1453  *  total size of entire memory block if successful.
1454  */
1455 private size_t extend(void* p, size_t minsize, size_t maxsize)
1456 in
1457 {
1458     assert( minsize <= maxsize );
1459 }
1460 body
1461 {
1462     if (opts.options.sentinel)
1463         return 0;
1464
1465     Pool* pool = findPool(p);
1466     if (pool is null)
1467         return 0;
1468
1469     // Retrieve attributes
1470     auto bit_i = cast(size_t)(p - pool.baseAddr) / 16;
1471     uint attrs = getAttr(pool, bit_i);
1472
1473     void* blk_base_addr = pool.findBase(p);
1474     size_t blk_size = pool.findSize(p);
1475     bool has_pm = has_pointermap(attrs);
1476     size_t* pm_bitmask = null;
1477     size_t pm_bitmask_size = 0;
1478     if (has_pm) {
1479         pm_bitmask_size = size_t.sizeof;
1480         // Retrieve pointer map bit mask
1481         auto end_of_blk = cast(size_t**)(blk_base_addr +
1482                 blk_size - size_t.sizeof);
1483         pm_bitmask = *end_of_blk;
1484
1485         minsize += size_t.sizeof;
1486         maxsize += size_t.sizeof;
1487     }
1488
1489     if (blk_size < PAGESIZE)
1490         return 0; // cannot extend buckets
1491
1492     auto psz = blk_size / PAGESIZE;
1493     auto minsz = (minsize + PAGESIZE - 1) / PAGESIZE;
1494     auto maxsz = (maxsize + PAGESIZE - 1) / PAGESIZE;
1495
1496     auto pagenum = (p - pool.baseAddr) / PAGESIZE;
1497
1498     size_t sz;
1499     for (sz = 0; sz < maxsz; sz++)
1500     {
1501         auto i = pagenum + psz + sz;
1502         if (i == pool.npages)
1503             break;
1504         if (pool.pagetable[i] != B_FREE)
1505         {
1506             if (sz < minsz)
1507                 return 0;
1508             break;
1509         }
1510     }
1511     if (sz < minsz)
1512         return 0;
1513
1514     size_t new_size = (psz + sz) * PAGESIZE;
1515
1516     if (opts.options.mem_stomp)
1517         memset(p + blk_size - pm_bitmask_size, 0xF0,
1518                 new_size - blk_size - pm_bitmask_size);
1519     memset(pool.pagetable + pagenum + psz, B_PAGEPLUS, sz);
1520     gc.p_cache = null;
1521     gc.size_cache = 0;
1522
1523     if (has_pm) {
1524         new_size -= size_t.sizeof;
1525         auto end_of_blk = cast(size_t**)(blk_base_addr + new_size);
1526         *end_of_blk = pm_bitmask;
1527     }
1528     return new_size;
1529 }
1530
1531
1532 //
1533 //
1534 //
1535 private void free(void *p)
1536 {
1537     assert (p);
1538
1539     Pool*  pool;
1540     size_t pagenum;
1541     Bins   bin;
1542     size_t bit_i;
1543
1544     // Find which page it is in
1545     pool = findPool(p);
1546     if (!pool)                              // if not one of ours
1547         return;                             // ignore
1548     if (opts.options.sentinel) {
1549         sentinel_Invariant(p);
1550         p = sentinel_sub(p);
1551     }
1552     pagenum = cast(size_t)(p - pool.baseAddr) / PAGESIZE;
1553     bit_i = cast(size_t)(p - pool.baseAddr) / 16;
1554     clrAttr(pool, bit_i, BlkAttr.ALL_BITS);
1555
1556     bin = cast(Bins)pool.pagetable[pagenum];
1557     if (bin == B_PAGE)              // if large alloc
1558     {
1559         // Free pages
1560         size_t npages = 1;
1561         size_t n = pagenum;
1562         while (++n < pool.npages && pool.pagetable[n] == B_PAGEPLUS)
1563             npages++;
1564         if (opts.options.mem_stomp)
1565             memset(p, 0xF2, npages * PAGESIZE);
1566         pool.freePages(pagenum, npages);
1567     }
1568     else
1569     {
1570         // Add to free list
1571         List *list = cast(List*)p;
1572
1573         if (opts.options.mem_stomp)
1574             memset(p, 0xF2, binsize[bin]);
1575
1576         list.next = gc.free_list[bin];
1577         gc.free_list[bin] = list;
1578     }
1579 }
1580
1581
1582 /**
1583  * Determine the allocated size of pointer p.  If p is an interior pointer
1584  * or not a gc allocated pointer, return 0.
1585  */
1586 private size_t sizeOf(void *p)
1587 {
1588     assert (p);
1589
1590     if (opts.options.sentinel)
1591         p = sentinel_sub(p);
1592
1593     Pool* pool = findPool(p);
1594     if (pool is null)
1595         return 0;
1596
1597     auto biti = cast(size_t)(p - pool.baseAddr) / 16;
1598     uint attrs = getAttr(pool, biti);
1599
1600     size_t size = pool.findSize(p);
1601     size_t pm_bitmask_size = 0;
1602     if (has_pointermap(attrs))
1603         pm_bitmask_size = size_t.sizeof;
1604
1605     if (opts.options.sentinel) {
1606         // Check for interior pointer
1607         // This depends on:
1608         // 1) size is a power of 2 for less than PAGESIZE values
1609         // 2) base of memory pool is aligned on PAGESIZE boundary
1610         if (cast(size_t)p & (size - 1) & (PAGESIZE - 1))
1611             return 0;
1612         return size - SENTINEL_EXTRA - pm_bitmask_size;
1613     }
1614     else {
1615         if (p == gc.p_cache)
1616             return gc.size_cache;
1617
1618         // Check for interior pointer
1619         // This depends on:
1620         // 1) size is a power of 2 for less than PAGESIZE values
1621         // 2) base of memory pool is aligned on PAGESIZE boundary
1622         if (cast(size_t)p & (size - 1) & (PAGESIZE - 1))
1623             return 0;
1624
1625         gc.p_cache = p;
1626         gc.size_cache = size - pm_bitmask_size;
1627
1628         return gc.size_cache;
1629     }
1630 }
1631
1632
1633 /**
1634  * Verify that pointer p:
1635  *  1) belongs to this memory pool
1636  *  2) points to the start of an allocated piece of memory
1637  *  3) is not on a free list
1638  */
1639 private void checkNoSync(void *p)
1640 {
1641     assert(p);
1642
1643     if (opts.options.sentinel)
1644         sentinel_Invariant(p);
1645     debug (PTRCHECK)
1646     {
1647         Pool*  pool;
1648         size_t pagenum;
1649         Bins   bin;
1650         size_t size;
1651
1652         if (opts.options.sentinel)
1653             p = sentinel_sub(p);
1654         pool = findPool(p);
1655         assert(pool);
1656         pagenum = cast(size_t)(p - pool.baseAddr) / PAGESIZE;
1657         bin = cast(Bins)pool.pagetable[pagenum];
1658         assert(bin <= B_PAGE);
1659         size = binsize[bin];
1660         assert((cast(size_t)p & (size - 1)) == 0);
1661
1662         debug (PTRCHECK2)
1663         {
1664             if (bin < B_PAGE)
1665             {
1666                 // Check that p is not on a free list
1667                 List *list;
1668
1669                 for (list = gc.free_list[bin]; list; list = list.next)
1670                 {
1671                     assert(cast(void*)list != p);
1672                 }
1673             }
1674         }
1675     }
1676 }
1677
1678
1679 //
1680 //
1681 //
1682 private void setStackBottom(void *p)
1683 {
1684     version (STACKGROWSDOWN)
1685     {
1686         //p = (void *)((uint *)p + 4);
1687         if (p > gc.stack_bottom)
1688         {
1689             gc.stack_bottom = p;
1690         }
1691     }
1692     else
1693     {
1694         //p = (void *)((uint *)p - 4);
1695         if (p < gc.stack_bottom)
1696         {
1697             gc.stack_bottom = cast(char*)p;
1698         }
1699     }
1700 }
1701
1702
1703 /**
1704  * Retrieve statistics about garbage collection.
1705  * Useful for debugging and tuning.
1706  */
1707 private GCStats getStats()
1708 {
1709     GCStats stats;
1710     size_t psize = 0;
1711     size_t usize = 0;
1712     size_t flsize = 0;
1713
1714     size_t n;
1715     size_t bsize = 0;
1716
1717     for (n = 0; n < gc.pools.length; n++)
1718     {
1719         Pool* pool = gc.pools[n];
1720         psize += pool.npages * PAGESIZE;
1721         for (size_t j = 0; j < pool.npages; j++)
1722         {
1723             Bins bin = cast(Bins)pool.pagetable[j];
1724             if (bin == B_FREE)
1725                 stats.freeblocks++;
1726             else if (bin == B_PAGE)
1727                 stats.pageblocks++;
1728             else if (bin < B_PAGE)
1729                 bsize += PAGESIZE;
1730         }
1731     }
1732
1733     for (n = 0; n < B_PAGE; n++)
1734     {
1735         for (List *list = gc.free_list[n]; list; list = list.next)
1736             flsize += binsize[n];
1737     }
1738
1739     usize = bsize - flsize;
1740
1741     stats.poolsize = psize;
1742     stats.usedsize = bsize - flsize;
1743     stats.freelistsize = flsize;
1744     return stats;
1745 }
1746
1747 /******************* weak-reference support *********************/
1748
1749 private struct WeakPointer
1750 {
1751     Object reference;
1752
1753     void ondestroy(Object r)
1754     {
1755         assert(r is reference);
1756         // lock for memory consistency (parallel readers)
1757         // also ensures that weakpointerDestroy can be called while another
1758         // thread is freeing the reference with "delete"
1759         return locked!(void, () {
1760             reference = null;
1761         })();
1762     }
1763 }
1764
1765 /**
1766  * Create a weak pointer to the given object.
1767  * Returns a pointer to an opaque struct allocated in C memory.
1768  */
1769 void* weakpointerCreate( Object r )
1770 {
1771     if (r)
1772     {
1773         // must be allocated in C memory
1774         // 1. to hide the reference from the GC
1775         // 2. the GC doesn't scan delegates added by rt_attachDisposeEvent
1776         //    for references
1777         auto wp = cast(WeakPointer*)(cstdlib.malloc(WeakPointer.sizeof));
1778         if (!wp)
1779             onOutOfMemoryError();
1780         wp.reference = r;
1781         rt_attachDisposeEvent(r, &wp.ondestroy);
1782         return wp;
1783     }
1784     return null;
1785 }
1786
1787 /**
1788  * Destroy a weak pointer returned by weakpointerCreate().
1789  * If null is passed, nothing happens.
1790  */
1791 void weakpointerDestroy( void* p )
1792 {
1793     if (p)
1794     {
1795         auto wp = cast(WeakPointer*)p;
1796         // must be extra careful about the GC or parallel threads
1797         // finalizing the reference at the same time
1798         return locked!(void, () {
1799             if (wp.reference)
1800                 rt_detachDisposeEvent(wp.reference, &wp.ondestroy);
1801         })();
1802         cstdlib.free(wp);
1803     }
1804 }
1805
1806 /**
1807  * Query a weak pointer and return either the object passed to
1808  * weakpointerCreate, or null if it was free'd in the meantime.
1809  * If null is passed, null is returned.
1810  */
1811 Object weakpointerGet( void* p )
1812 {
1813     if (p)
1814     {
1815         // NOTE: could avoid the lock by using Fawzi style GC counters but
1816         // that'd require core.sync.Atomic and lots of care about memory
1817         // consistency it's an optional optimization see
1818         // http://dsource.org/projects/tango/browser/trunk/user/tango/core/Lifetime.d?rev=5100#L158
1819         return locked!(Object, () {
1820             return (cast(WeakPointer*)p).reference;
1821         })();
1822         }
1823 }
1824
1825
1826 /* ============================ Pool  =============================== */
1827
1828
1829 struct Pool
1830 {
1831     byte* baseAddr;
1832     byte* topAddr;
1833     GCBits mark;     // entries already scanned, or should not be scanned
1834     GCBits scan;     // entries that need to be scanned
1835     GCBits freebits; // entries that are on the free list
1836     GCBits finals;   // entries that need finalizer run on them
1837     GCBits noscan;   // entries that should not be scanned
1838
1839     size_t npages;
1840     ubyte* pagetable;
1841
1842     /// Cache for findSize()
1843     size_t cached_size;
1844     void* cached_ptr;
1845
1846     void clear_cache()
1847     {
1848         this.cached_ptr = null;
1849         this.cached_size = 0;
1850     }
1851
1852     void initialize(size_t npages)
1853     {
1854         size_t poolsize = npages * PAGESIZE;
1855         assert(poolsize >= POOLSIZE);
1856         baseAddr = cast(byte *) os.alloc(poolsize);
1857
1858         // Some of the code depends on page alignment of memory pools
1859         assert((cast(size_t)baseAddr & (PAGESIZE - 1)) == 0);
1860
1861         if (!baseAddr)
1862         {
1863             npages = 0;
1864             poolsize = 0;
1865         }
1866         //assert(baseAddr);
1867         topAddr = baseAddr + poolsize;
1868
1869         mark.alloc(cast(size_t)poolsize / 16);
1870         scan.alloc(cast(size_t)poolsize / 16);
1871         freebits.alloc(cast(size_t)poolsize / 16);
1872         noscan.alloc(cast(size_t)poolsize / 16);
1873
1874         pagetable = cast(ubyte*) cstdlib.malloc(npages);
1875         if (!pagetable)
1876             onOutOfMemoryError();
1877         memset(pagetable, B_FREE, npages);
1878
1879         this.npages = npages;
1880     }
1881
1882
1883     void Dtor()
1884     {
1885         if (baseAddr)
1886         {
1887             int result;
1888
1889             if (npages)
1890             {
1891                 result = os.dealloc(baseAddr, npages * PAGESIZE);
1892                 assert(result);
1893                 npages = 0;
1894             }
1895
1896             baseAddr = null;
1897             topAddr = null;
1898         }
1899         // See Gcx.Dtor() for the rationale of the null check.
1900         if (pagetable)
1901             cstdlib.free(pagetable);
1902
1903         mark.Dtor();
1904         scan.Dtor();
1905         freebits.Dtor();
1906         finals.Dtor();
1907         noscan.Dtor();
1908     }
1909
1910
1911     bool Invariant()
1912     {
1913         return true;
1914     }
1915
1916
1917     invariant
1918     {
1919         //mark.Invariant();
1920         //scan.Invariant();
1921         //freebits.Invariant();
1922         //finals.Invariant();
1923         //noscan.Invariant();
1924
1925         if (baseAddr)
1926         {
1927             //if (baseAddr + npages * PAGESIZE != topAddr)
1928                 //printf("baseAddr = %p, npages = %d, topAddr = %p\n", baseAddr, npages, topAddr);
1929             assert(baseAddr + npages * PAGESIZE == topAddr);
1930         }
1931
1932         for (size_t i = 0; i < npages; i++)
1933         {
1934             Bins bin = cast(Bins)pagetable[i];
1935             assert(bin < B_MAX);
1936         }
1937     }
1938
1939
1940     /**
1941      * Allocate n pages from Pool.
1942      * Returns OPFAIL on failure.
1943      */
1944     size_t allocPages(size_t n)
1945     {
1946         size_t i;
1947         size_t n2;
1948
1949         n2 = n;
1950         for (i = 0; i < npages; i++)
1951         {
1952             if (pagetable[i] == B_FREE)
1953             {
1954                 if (--n2 == 0)
1955                     return i - n + 1;
1956             }
1957             else
1958                 n2 = n;
1959         }
1960         return OPFAIL;
1961     }
1962
1963
1964     /**
1965      * Free npages pages starting with pagenum.
1966      */
1967     void freePages(size_t pagenum, size_t npages)
1968     {
1969         memset(&pagetable[pagenum], B_FREE, npages);
1970     }
1971
1972
1973     /**
1974      * Find base address of block containing pointer p.
1975      * Returns null if the pointer doesn't belong to this pool
1976      */
1977     void* findBase(void *p)
1978     {
1979         size_t offset = cast(size_t)(p - this.baseAddr);
1980         size_t pagenum = offset / PAGESIZE;
1981         Bins bin = cast(Bins)this.pagetable[pagenum];
1982         // Adjust bit to be at start of allocated memory block
1983         if (bin <= B_PAGE)
1984             return this.baseAddr + (offset & notbinsize[bin]);
1985         if (bin == B_PAGEPLUS) {
1986             do {
1987                 --pagenum, offset -= PAGESIZE;
1988             } while (cast(Bins)this.pagetable[pagenum] == B_PAGEPLUS);
1989             return this.baseAddr + (offset & (offset.max ^ (PAGESIZE-1)));
1990         }
1991         // we are in a B_FREE page
1992         return null;
1993     }
1994
1995
1996     /**
1997      * Find size of pointer p.
1998      * Returns 0 if p doesn't belong to this pool if if it's block size is less
1999      * than a PAGE.
2000      */
2001     size_t findSize(void *p)
2002     {
2003         size_t pagenum = cast(size_t)(p - this.baseAddr) / PAGESIZE;
2004         Bins bin = cast(Bins)this.pagetable[pagenum];
2005         if (bin != B_PAGE)
2006             return binsize[bin];
2007         if (this.cached_ptr == p)
2008             return this.cached_size;
2009         size_t i = pagenum + 1;
2010         for (; i < this.npages; i++)
2011             if (this.pagetable[i] != B_PAGEPLUS)
2012                 break;
2013         this.cached_ptr = p;
2014         this.cached_size = (i - pagenum) * PAGESIZE;
2015         return this.cached_size;
2016     }
2017
2018
2019     /**
2020      * Used for sorting pools
2021      */
2022     int opCmp(in Pool other)
2023     {
2024         if (baseAddr < other.baseAddr)
2025             return -1;
2026         else
2027         return cast(int)(baseAddr > other.baseAddr);
2028     }
2029 }
2030
2031
2032 /* ============================ SENTINEL =============================== */
2033
2034
2035 const size_t SENTINEL_PRE = cast(size_t) 0xF4F4F4F4F4F4F4F4UL; // 32 or 64 bits
2036 const ubyte SENTINEL_POST = 0xF5;           // 8 bits
2037 const uint SENTINEL_EXTRA = 2 * size_t.sizeof + 1;
2038
2039
2040 size_t* sentinel_size(void *p)  { return &(cast(size_t *)p)[-2]; }
2041 size_t* sentinel_pre(void *p)   { return &(cast(size_t *)p)[-1]; }
2042 ubyte* sentinel_post(void *p) { return &(cast(ubyte *)p)[*sentinel_size(p)]; }
2043
2044
2045 void sentinel_init(void *p, size_t size)
2046 {
2047     *sentinel_size(p) = size;
2048     *sentinel_pre(p) = SENTINEL_PRE;
2049     *sentinel_post(p) = SENTINEL_POST;
2050 }
2051
2052
2053 void sentinel_Invariant(void *p)
2054 {
2055     assert(*sentinel_pre(p) == SENTINEL_PRE);
2056     assert(*sentinel_post(p) == SENTINEL_POST);
2057 }
2058
2059
2060 void *sentinel_add(void *p)
2061 {
2062     return p + 2 * size_t.sizeof;
2063 }
2064
2065
2066 void *sentinel_sub(void *p)
2067 {
2068     return p - 2 * size_t.sizeof;
2069 }
2070
2071
2072
2073 /* ============================ C Public Interface ======================== */
2074
2075
2076 private int _termCleanupLevel=1;
2077
2078 extern (C):
2079
2080 /// sets the cleanup level done by gc
2081 /// 0: none
2082 /// 1: fullCollect
2083 /// 2: fullCollect ignoring stack roots (might crash daemonThreads)
2084 /// result !=0 if the value was invalid
2085 int gc_setTermCleanupLevel(int cLevel)
2086 {
2087     if (cLevel<0 || cLevel>2) return cLevel;
2088     _termCleanupLevel=cLevel;
2089     return 0;
2090 }
2091
2092 /// returns the cleanup level done by gc
2093 int gc_getTermCleanupLevel()
2094 {
2095     return _termCleanupLevel;
2096 }
2097
2098 void gc_init()
2099 {
2100     scope (exit) assert (Invariant());
2101     gc = cast(GC*) cstdlib.calloc(1, GC.sizeof);
2102     *gc = GC.init;
2103     initialize();
2104     version (DigitalMars) version(OSX) {
2105         _d_osx_image_init();
2106     }
2107     // NOTE: The GC must initialize the thread library
2108     //       before its first collection.
2109     thread_init();
2110 }
2111
2112 void gc_term()
2113 {
2114     assert (Invariant());
2115     if (_termCleanupLevel<1) {
2116         // no cleanup
2117     } else if (_termCleanupLevel==2){
2118         // a more complete cleanup
2119         // NOTE: There may be daemons threads still running when this routine is
2120         //       called.  If so, cleaning memory out from under then is a good
2121         //       way to make them crash horribly.
2122         //       Often this probably doesn't matter much since the app is
2123         //       supposed to be shutting down anyway, but for example tests might
2124         //       crash (and be considerd failed even if the test was ok).
2125         //       thus this is not the default and should be enabled by
2126         //       I'm disabling cleanup for now until I can think about it some
2127         //       more.
2128         //
2129         // not really a 'collect all' -- still scans static data area, roots,
2130         // and ranges.
2131         return locked!(void, () {
2132             gc.no_stack++;
2133             fullcollectshell();
2134             gc.no_stack--;
2135         })();
2136     } else {
2137         // default (safe) clenup
2138         return locked!(void, () {
2139             fullcollectshell();
2140         })();
2141     }
2142 }
2143
2144 void gc_enable()
2145 {
2146     return locked!(void, () {
2147         assert (Invariant()); scope (exit) assert (Invariant());
2148         assert (gc.disabled > 0);
2149         gc.disabled--;
2150     })();
2151 }
2152
2153 void gc_disable()
2154 {
2155     return locked!(void, () {
2156         assert (Invariant()); scope (exit) assert (Invariant());
2157         gc.disabled++;
2158     })();
2159 }
2160
2161 void gc_collect()
2162 {
2163     return locked!(void, () {
2164         assert (Invariant()); scope (exit) assert (Invariant());
2165         fullcollectshell();
2166     })();
2167 }
2168
2169
2170 void gc_minimize()
2171 {
2172     return locked!(void, () {
2173         assert (Invariant()); scope (exit) assert (Invariant());
2174         minimize();
2175     })();
2176 }
2177
2178 uint gc_getAttr(void* p)
2179 {
2180     if (p is null)
2181         return 0;
2182     return locked!(uint, () {
2183         assert (Invariant()); scope (exit) assert (Invariant());
2184         Pool* pool = findPool(p);
2185         if (pool is null)
2186             return 0u;
2187         auto bit_i = cast(size_t)(p - pool.baseAddr) / 16;
2188         return getAttr(pool, bit_i);
2189     })();
2190 }
2191
2192 uint gc_setAttr(void* p, uint attrs)
2193 {
2194     if (p is null)
2195         return 0;
2196     return locked!(uint, () {
2197         assert (Invariant()); scope (exit) assert (Invariant());
2198         Pool* pool = findPool(p);
2199         if (pool is null)
2200             return 0u;
2201         auto bit_i = cast(size_t)(p - pool.baseAddr) / 16;
2202         uint old_attrs = getAttr(pool, bit_i);
2203         setAttr(pool, bit_i, attrs);
2204         return old_attrs;
2205     })();
2206 }
2207
2208 uint gc_clrAttr(void* p, uint attrs)
2209 {
2210     if (p is null)
2211         return 0;
2212     return locked!(uint, () {
2213         assert (Invariant()); scope (exit) assert (Invariant());
2214         Pool* pool = findPool(p);
2215         if (pool is null)
2216             return 0u;
2217         auto bit_i = cast(size_t)(p - pool.baseAddr) / 16;
2218         uint old_attrs = getAttr(pool, bit_i);
2219         clrAttr(pool, bit_i, attrs);
2220         return old_attrs;
2221     })();
2222 }
2223
2224 void* gc_malloc(size_t size, uint attrs = 0,
2225         PointerMap ptrmap = PointerMap.init)
2226 {
2227     if (size == 0)
2228         return null;
2229     return locked!(void*, () {
2230         assert (Invariant()); scope (exit) assert (Invariant());
2231         return malloc(size, attrs, ptrmap.bits.ptr);
2232     })();
2233 }
2234
2235 void* gc_calloc(size_t size, uint attrs = 0,
2236         PointerMap ptrmap = PointerMap.init)
2237 {
2238     if (size == 0)
2239         return null;
2240     return locked!(void*, () {
2241         assert (Invariant()); scope (exit) assert (Invariant());
2242         return calloc(size, attrs, ptrmap.bits.ptr);
2243     })();
2244 }
2245
2246 void* gc_realloc(void* p, size_t size, uint attrs = 0,
2247         PointerMap ptrmap = PointerMap.init)
2248 {
2249     return locked!(void*, () {
2250         assert (Invariant()); scope (exit) assert (Invariant());
2251         return realloc(p, size, attrs, ptrmap.bits.ptr);
2252     })();
2253 }
2254
2255 size_t gc_extend(void* p, size_t min_size, size_t max_size)
2256 {
2257     return locked!(size_t, () {
2258         assert (Invariant()); scope (exit) assert (Invariant());
2259         return extend(p, min_size, max_size);
2260     })();
2261 }
2262
2263 size_t gc_reserve(size_t size)
2264 {
2265     if (size == 0)
2266         return 0;
2267     return locked!(size_t, () {
2268         assert (Invariant()); scope (exit) assert (Invariant());
2269         return reserve(size);
2270     })();
2271 }
2272
2273 void gc_free(void* p)
2274 {
2275     if (p is null)
2276         return;
2277     return locked!(void, () {
2278         assert (Invariant()); scope (exit) assert (Invariant());
2279         free(p);
2280     })();
2281 }
2282
2283 void* gc_addrOf(void* p)
2284 {
2285     if (p is null)
2286         return null;
2287     return locked!(void*, () {
2288         assert (Invariant()); scope (exit) assert (Invariant());
2289         Pool* pool = findPool(p);
2290         if (pool is null)
2291             return null;
2292         return pool.findBase(p);
2293     })();
2294 }
2295
2296 size_t gc_sizeOf(void* p)
2297 {
2298     if (p is null)
2299         return 0;
2300     return locked!(size_t, () {
2301         assert (Invariant()); scope (exit) assert (Invariant());
2302         return sizeOf(p);
2303     })();
2304 }
2305
2306 BlkInfo gc_query(void* p)
2307 {
2308     if (p is null)
2309         return BlkInfo.init;
2310     return locked!(BlkInfo, () {
2311         assert (Invariant()); scope (exit) assert (Invariant());
2312         return getInfo(p);
2313     })();
2314 }
2315
2316 // NOTE: This routine is experimental.  The stats or function name may change
2317 //       before it is made officially available.
2318 GCStats gc_stats()
2319 {
2320     return locked!(GCStats, () {
2321         assert (Invariant()); scope (exit) assert (Invariant());
2322         return getStats();
2323     })();
2324 }
2325
2326 void gc_addRoot(void* p)
2327 {
2328     if (p is null)
2329         return;
2330     return locked!(void, () {
2331         assert (Invariant()); scope (exit) assert (Invariant());
2332         if (gc.roots.append(p) is null)
2333             onOutOfMemoryError();
2334     })();
2335 }
2336
2337 void gc_addRange(void* p, size_t size)
2338 {
2339     if (p is null || size == 0)
2340         return;
2341     return locked!(void, () {
2342         assert (Invariant()); scope (exit) assert (Invariant());
2343         if (gc.ranges.append(Range(p, p + size)) is null)
2344             onOutOfMemoryError();
2345     })();
2346 }
2347
2348 void gc_removeRoot(void* p)
2349 {
2350     if (p is null)
2351         return;
2352     return locked!(void, () {
2353         assert (Invariant()); scope (exit) assert (Invariant());
2354         bool r = gc.roots.remove(p);
2355         assert (r);
2356     })();
2357 }
2358
2359 void gc_removeRange(void* p)
2360 {
2361     if (p is null)
2362         return;
2363     return locked!(void, () {
2364         assert (Invariant()); scope (exit) assert (Invariant());
2365         bool r = gc.ranges.remove(Range(p, null));
2366         assert (r);
2367     })();
2368 }
2369
2370 void* gc_weakpointerCreate(Object r)
2371 {
2372     // weakpointers do their own locking
2373     return weakpointerCreate(r);
2374 }
2375
2376 void gc_weakpointerDestroy(void* wp)
2377 {
2378     // weakpointers do their own locking
2379     weakpointerDestroy(wp);
2380 }
2381
2382 Object gc_weakpointerGet(void* wp)
2383 {
2384     // weakpointers do their own locking
2385     return weakpointerGet(wp);
2386 }
2387
2388
2389 // vim: set et sw=4 sts=4 :