mm/cma_debug.c: remove blank lines before DEFINE_SIMPLE_ATTRIBUTE()
[deliverable/linux.git] / mm / cma_debug.c
index 3af2de6d4e5f5838bed16e77da5e5c167d932869..7621ee34daa0dea1dd0246238e7eb5bc613cfe4c 100644 (file)
@@ -7,9 +7,19 @@
 
 #include <linux/debugfs.h>
 #include <linux/cma.h>
+#include <linux/list.h>
+#include <linux/kernel.h>
+#include <linux/slab.h>
+#include <linux/mm_types.h>
 
 #include "cma.h"
 
+struct cma_mem {
+       struct hlist_node node;
+       struct page *p;
+       unsigned long n;
+};
+
 static struct dentry *cma_debugfs_root;
 
 static int cma_debugfs_get(void *data, u64 *val)
@@ -20,9 +30,136 @@ static int cma_debugfs_get(void *data, u64 *val)
 
        return 0;
 }
-
 DEFINE_SIMPLE_ATTRIBUTE(cma_debugfs_fops, cma_debugfs_get, NULL, "%llu\n");
 
+static int cma_used_get(void *data, u64 *val)
+{
+       struct cma *cma = data;
+       unsigned long used;
+
+       mutex_lock(&cma->lock);
+       /* pages counter is smaller than sizeof(int) */
+       used = bitmap_weight(cma->bitmap, (int)cma->count);
+       mutex_unlock(&cma->lock);
+       *val = (u64)used << cma->order_per_bit;
+
+       return 0;
+}
+DEFINE_SIMPLE_ATTRIBUTE(cma_used_fops, cma_used_get, NULL, "%llu\n");
+
+static int cma_maxchunk_get(void *data, u64 *val)
+{
+       struct cma *cma = data;
+       unsigned long maxchunk = 0;
+       unsigned long start, end = 0;
+
+       mutex_lock(&cma->lock);
+       for (;;) {
+               start = find_next_zero_bit(cma->bitmap, cma->count, end);
+               if (start >= cma->count)
+                       break;
+               end = find_next_bit(cma->bitmap, cma->count, start);
+               maxchunk = max(end - start, maxchunk);
+       }
+       mutex_unlock(&cma->lock);
+       *val = (u64)maxchunk << cma->order_per_bit;
+
+       return 0;
+}
+DEFINE_SIMPLE_ATTRIBUTE(cma_maxchunk_fops, cma_maxchunk_get, NULL, "%llu\n");
+
+static void cma_add_to_cma_mem_list(struct cma *cma, struct cma_mem *mem)
+{
+       spin_lock(&cma->mem_head_lock);
+       hlist_add_head(&mem->node, &cma->mem_head);
+       spin_unlock(&cma->mem_head_lock);
+}
+
+static struct cma_mem *cma_get_entry_from_list(struct cma *cma)
+{
+       struct cma_mem *mem = NULL;
+
+       spin_lock(&cma->mem_head_lock);
+       if (!hlist_empty(&cma->mem_head)) {
+               mem = hlist_entry(cma->mem_head.first, struct cma_mem, node);
+               hlist_del_init(&mem->node);
+       }
+       spin_unlock(&cma->mem_head_lock);
+
+       return mem;
+}
+
+static int cma_free_mem(struct cma *cma, int count)
+{
+       struct cma_mem *mem = NULL;
+
+       while (count) {
+               mem = cma_get_entry_from_list(cma);
+               if (mem == NULL)
+                       return 0;
+
+               if (mem->n <= count) {
+                       cma_release(cma, mem->p, mem->n);
+                       count -= mem->n;
+                       kfree(mem);
+               } else if (cma->order_per_bit == 0) {
+                       cma_release(cma, mem->p, count);
+                       mem->p += count;
+                       mem->n -= count;
+                       count = 0;
+                       cma_add_to_cma_mem_list(cma, mem);
+               } else {
+                       pr_debug("cma: cannot release partial block when order_per_bit != 0\n");
+                       cma_add_to_cma_mem_list(cma, mem);
+                       break;
+               }
+       }
+
+       return 0;
+
+}
+
+static int cma_free_write(void *data, u64 val)
+{
+       int pages = val;
+       struct cma *cma = data;
+
+       return cma_free_mem(cma, pages);
+}
+DEFINE_SIMPLE_ATTRIBUTE(cma_free_fops, NULL, cma_free_write, "%llu\n");
+
+static int cma_alloc_mem(struct cma *cma, int count)
+{
+       struct cma_mem *mem;
+       struct page *p;
+
+       mem = kzalloc(sizeof(*mem), GFP_KERNEL);
+       if (!mem)
+               return -ENOMEM;
+
+       p = cma_alloc(cma, count, 0);
+       if (!p) {
+               kfree(mem);
+               return -ENOMEM;
+       }
+
+       mem->p = p;
+       mem->n = count;
+
+       cma_add_to_cma_mem_list(cma, mem);
+
+       return 0;
+}
+
+static int cma_alloc_write(void *data, u64 val)
+{
+       int pages = val;
+       struct cma *cma = data;
+
+       return cma_alloc_mem(cma, pages);
+}
+DEFINE_SIMPLE_ATTRIBUTE(cma_alloc_fops, NULL, cma_alloc_write, "%llu\n");
+
 static void cma_debugfs_add_one(struct cma *cma, int idx)
 {
        struct dentry *tmp;
@@ -33,12 +170,20 @@ static void cma_debugfs_add_one(struct cma *cma, int idx)
 
        tmp = debugfs_create_dir(name, cma_debugfs_root);
 
+       debugfs_create_file("alloc", S_IWUSR, cma_debugfs_root, cma,
+                               &cma_alloc_fops);
+
+       debugfs_create_file("free", S_IWUSR, cma_debugfs_root, cma,
+                               &cma_free_fops);
+
        debugfs_create_file("base_pfn", S_IRUGO, tmp,
                                &cma->base_pfn, &cma_debugfs_fops);
        debugfs_create_file("count", S_IRUGO, tmp,
                                &cma->count, &cma_debugfs_fops);
        debugfs_create_file("order_per_bit", S_IRUGO, tmp,
-                       &cma->order_per_bit, &cma_debugfs_fops);
+                               &cma->order_per_bit, &cma_debugfs_fops);
+       debugfs_create_file("used", S_IRUGO, tmp, cma, &cma_used_fops);
+       debugfs_create_file("maxchunk", S_IRUGO, tmp, cma, &cma_maxchunk_fops);
 
        u32s = DIV_ROUND_UP(cma_bitmap_maxno(cma), BITS_PER_BYTE * sizeof(u32));
        debugfs_create_u32_array("bitmap", S_IRUGO, tmp, (u32*)cma->bitmap, u32s);
This page took 0.030278 seconds and 5 git commands to generate.