feat: heap support and re-worked
[lunaix-os.git] / lunaix-os / kernel / mm / region.c
1 #include <lunaix/mm/page.h>
2 #include <lunaix/mm/region.h>
3 #include <lunaix/mm/valloc.h>
4 #include <lunaix/spike.h>
5
6 #include <klibc/string.h>
7
8 struct mm_region*
9 region_create(ptr_t start, ptr_t end, u32_t attr)
10 {
11     assert_msg(PG_ALIGNED(start), "not page aligned");
12     assert_msg(PG_ALIGNED(end), "not page aligned");
13     struct mm_region* region = valloc(sizeof(struct mm_region));
14     *region =
15       (struct mm_region){ .attr = attr, .start = start, .end = end - 1 };
16     return region;
17 }
18
19 struct mm_region*
20 region_create_range(ptr_t start, size_t length, u32_t attr)
21 {
22     assert_msg(PG_ALIGNED(start), "not page aligned");
23     assert_msg(PG_ALIGNED(length), "not page aligned");
24     struct mm_region* region = valloc(sizeof(struct mm_region));
25     *region = (struct mm_region){ .attr = attr,
26                                   .start = start,
27                                   .end = PG_ALIGN(start + length - 1) };
28     return region;
29 }
30
31 void
32 region_add(vm_regions_t* lead, struct mm_region* vmregion)
33 {
34     if (llist_empty(lead)) {
35         llist_append(lead, &vmregion->head);
36         return;
37     }
38
39     ptr_t cur_end = 0;
40     struct mm_region *pos = (struct mm_region*)lead,
41                      *n = list_entry(lead->next, struct mm_region, head);
42     do {
43         if (vmregion->start > cur_end && vmregion->end < n->start) {
44             break;
45         }
46         cur_end = n->end;
47         pos = n;
48         n = list_entry(n->head.next, struct mm_region, head);
49     } while ((ptr_t)&pos->head != (ptr_t)lead);
50
51     // XXX caution. require mm_region::head to be the lead of struct
52     llist_insert_after(&pos->head, &vmregion->head);
53 }
54
55 void
56 region_release(struct mm_region* region)
57 {
58     if (region->destruct_region) {
59         region->destruct_region(region);
60     }
61
62     if (region->mfile) {
63         vfs_pclose(region->mfile, region->proc_vms->pid);
64     }
65
66     if (region->index) {
67         *region->index = NULL;
68     }
69
70     vfree(region);
71 }
72
73 void
74 region_release_all(vm_regions_t* lead)
75 {
76     struct mm_region *pos, *n;
77
78     llist_for_each(pos, n, lead, head)
79     {
80         region_release(pos);
81     }
82 }
83
84 void
85 region_copy(struct proc_mm* src, struct proc_mm* dest)
86 {
87     struct mm_region *pos, *n, *dup;
88
89     llist_for_each(pos, n, &src->regions, head)
90     {
91         dup = valloc(sizeof(struct mm_region));
92         memcpy(dup, pos, sizeof(*pos));
93
94         dup->proc_vms = dest;
95
96         if (dup->mfile) {
97             vfs_ref_file(dup->mfile);
98         }
99
100         if (dup->region_copied) {
101             dup->region_copied(dup);
102         }
103
104         region_add(&dest->regions, dup);
105     }
106 }
107
108 struct mm_region*
109 region_get(vm_regions_t* lead, unsigned long vaddr)
110 {
111     if (llist_empty(lead)) {
112         return NULL;
113     }
114
115     struct mm_region *pos, *n;
116
117     vaddr = PG_ALIGN(vaddr);
118
119     llist_for_each(pos, n, lead, head)
120     {
121         if (pos->start <= vaddr && vaddr <= pos->end) {
122             return pos;
123         }
124     }
125     return NULL;
126 }