#define CHECK(_sem) (sem_init(&(_sem)->sem, (pshared), (value)) == 0) ? ((_sem)->valid = true, 0) : ((_sem)->valid = false, -1)
然后使用的地方为
ret = CHECK(_sem)
也就是说,sem_init返回0时,_sem->valid被设置成true, ret被设置为0,
sem_init返回非0时,_sem->valid被设置成false, ret被设置为-1
#include <fcntl.h>#include <semaphore.h>
#include <pthread.h>
#include <sys/stat.h>#define LENTH 8typedef int Ttypedef struct cycle
{
T data[LENTH]
int head
int tail
sem_t *mutex
sem_t *db
int reader
} circularint init_queue(circular *queue)
int is_empty(circular queue)
int is_full(circular queue)
int insert(circular queue, const T data)
int popout(circular queue, T *data)
int queue_lenth(circular queue)
int read_queue(int tag, T *data, circular queue)
int close_queue(circular *queue)int init_queue(circular *queue)
{
queue->head = 0
queue->tail = 0
queue->mutex = sem_open("read", O_RDWR | O_CREAT, 0644, 0)
queue->db = sem_open("write", O_RDWR | O_CREAT, 0644, 0)
sem_init(queue->mutex, 0, 1)
sem_init(queue->db, 0, 1)
queue->reader = 0
return 0
}int is_empty(circular queue)
{
int ret
sem_wait(queue.mutex)
queue.reader++
if(queue.reader == 1)
sem_wait(queue.db)
sem_post(queue.mutex)
//临界区
ret = (queue.head == queue.tail)
//临界区
sem_wait(queue.mutex)
queue.reader--
if(queue.reader == 0)
sem_post(queue.mutex)
return ret
}int is_full(circular queue)
{
int ret
sem_wait(queue.mutex)
queue.reader++
if(queue.reader == 1)
sem_wait(queue.db)
sem_post(queue.mutex)
//临界区
ret = (queue.head == (queue.tail + 1) % LENTH)
//临界区
sem_wait(queue.mutex)
queue.reader--
if(queue.reader == 0)
sem_post(queue.mutex)
return ret
}int insert(circular queue, const T data)
{
int ret = 0
sem_wait(queue.db)
//临界区
if(is_empty(queue))
ret = -1
queue.data[queue.tail] = data
queue.tail = (queue.tail + 1) % LENTH
sem_post(queue.db)
//临界区
return ret
}int popout(circular queue, T *data)
{
int ret = 0
sem_wait(queue.db)
//临界区
if(is_full(queue))
ret = -1
*data = queue.data[queue.head]
queue.head = (queue.head + 1) % LENTH
//临界区
sem_post(queue.db)
return ret
}int queue_lenth(circular queue)
{
int ret
sem_wait(queue.mutex)
queue.reader++
if(queue.reader == 1)
sem_wait(queue.db)
sem_post(queue.mutex)
//临界区
ret = (queue.tail - queue.head + LENTH) % LENTH
//临界区
sem_wait(queue.mutex)
queue.reader--
if(queue.reader == 0)
sem_post(queue.mutex)
return ret
}int read_queue(int tag, T *data, circular queue)
{
int ret = 0
sem_wait(queue.mutex)
queue.reader++
if(queue.reader == 1)
sem_wait(queue.db)
sem_post(queue.mutex)
//临界区
if(tag >= queue_lenth(queue))
ret = -1
*data = queue.data[queue.head + tag]
//临界区
sem_wait(queue.mutex)
queue.reader--
if(queue.reader == 0)
sem_post(queue.mutex)
return ret
}int close_queue(circular *queue)
{
sem_destroy(queue->mutex)
sem_destroy(queue->db)
return 0
}
From : https://blog.csdn.net/qq_39382769/article/details/96075346
1.同一个线程内部,指令按照先后顺序执行;但不同线程之间的指令很难说清楚是哪一个先执行,在并发情况下,指令执行的先后顺序由内核决定。
如果运行的结果依赖于不同线程执行的先后的话,那么就会形成竞争条件,在这样的情况下,计算的结果很难预知,所以应该尽量避免竞争条件的形成。
2.最常见的解决竞争条件的方法是:将原先分离的两个指令构成一个不可分割的原子操作,而其他任务不能插入到原子操作中!
3.对多线程来说,同步指的是在一定时间内只允许某一个线程访问某个资源,而在此时间内,不允许其他线程访问该资源!
互斥锁
条件变量
读写锁
一种特殊的全局变量,拥有lock和unlock两种状态。
unlock的互斥锁可以由某个线程获得,一旦获得,这个互斥锁会锁上变成lock状态,此后只有该线程由权力打开该锁,其他线程想要获得互斥锁,必须得到互斥锁再次被打开之后。
1.互斥锁的初始化, 分为静态初始化和动态初始化.
2.互斥锁的相关属性及分类
(1) attr表示互斥锁的属性
(2) pshared表示互斥锁的共享属性,由两种取值:
1)PTHREAD_PROCESS_PRIVATE:锁只能用于一个进程内部的两个线程进行互斥(默认情况)
2)PTHREAD_PROCESS_SHARED:锁可用于两个不同进程中的线程进行互斥,使用时还需要在进程共享内存中分配互斥锁,然后为该互斥锁指定属性就可以了。
互斥锁存在缺点:
(1)某个线程正在等待共享数据内某个条件出现。
(2)重复对数据对象加锁和解锁(轮询),但是这样轮询非常耗费时间和资源,而且效率非常低,所以互斥锁不太适合这种情况。
当线程在等待满足某些条件时,使线程进入睡眠状态;一旦条件满足,就换线因等待满足特定条件而睡眠的线程。
程序的效率无疑会大大提高。
1)创建
静态方式:pthread_cond_t cond PTHREAD_COND_INITIALIZER
动态方式:int pthread_cond_init(&cond,NULL)
Linux thread 实现的条件变量不支持属性,所以NULL(cond_attr参数)
2)注销
int pthread_cond_destory(&cond)
只有没有线程在该条件变量上,该条件变量才能注销,否则返回EBUSY
因为Linux实现的条件变量没有分配什么资源,所以注销动作只包括检查是否有等待线程!(请参考条件变量的底层实现)
3)等待
条件等待:int pthread_cond_wait(&cond,&mutex)
计时等待:int pthread_cond_timewait(&cond,&mutex,time)
1.其中计时等待如果在给定时刻前条件没有被满足,则返回ETIMEOUT,结束等待
2.无论那种等待方式,都必须有一个互斥锁配合,以防止多个线程同时请求pthread_cond_wait形成竞争条件!
3.在调用pthread_cond_wait前必须由本线程加锁
4)激发
激发一个等待线程:pthread_cond_signal(&cond)
激发所有等待线程:pthread_cond_broadcast(&cond)
重要的是,pthread_cond_signal不会存在惊群效应,也就是是它最多给一个等待线程发信号,不会给所有线程发信号唤醒,然后要求他们自己去争抢资源!
pthread_cond_broadcast() 唤醒所有正在pthread_cond_wait()的同一个条件变量的线程。注意:如果等待的多个现场不使用同一个锁,被唤醒的多个线程执行是并发的。
pthread_cond_broadcast &pthread_cond_signal
1.读写锁比互斥锁更加具有适用性和并行性
2.读写锁最适用于对数据结构的读操作读操作次数多余写操作次数的场合!
3.锁处于读模式时可以线程共享,而锁处于写模式时只能独占,所以读写锁又叫做共享-独占锁。
4.读写锁有两种策略:强读同步和强写同步
强读同步:
总是给读者更高的优先权,只要写者没有进行写操作,读者就可以获得访问权限
强写同步:
总是给写者更高的优先权,读者只能等到所有正在等待或者执行的写者完成后才能进行读
1)初始化的销毁读写锁
静态初始化:pthread_rwlock_t rwlock=PTHREAD_RWLOCK_INITIALIZER
动态初始化:int pthread_rwlock_init(rwlock,NULL),NULL代表读写锁采用默认属性
销毁读写锁:int pthread_rwlock_destory(rwlock)
在释放某个读写锁的资源之前,需要先通过pthread_rwlock_destory函数对读写锁进行清理。释放由pthread_rwlock_init函数分配的资源
如果你想要读写锁使用非默认属性,则attr不能为NULL,得给attr赋值
int pthread_rwlockattr_init(attr),给attr初始化
int pthread_rwlockattr_destory(attr),销毁attr
2)以写的方式获取锁,以读的方式获取锁,释放读写锁
int pthread_rwlock_rdlock(rwlock),以读的方式获取锁
int pthread_rwlock_wrlock(rwlock),以写的方式获取锁
int pthread_rwlock_unlock(rwlock),释放锁
上面两个获取锁的方式都是阻塞的函数,也就是说获取不到锁的话,调用线程不是立即返回,而是阻塞执行,在需要进行写操作的时候,这种阻塞式获取锁的方式是非常不好的,你想一下,我需要进行写操作,不但没有获取到锁,我还一直在这里等待,大大拖累效率
所以我们应该采用非阻塞的方式获取锁:
int pthread_rwlock_tryrdlock(rwlock)
int pthread_rwlock_trywrlock(rwlock)
互斥锁只允许一个线程进入临界区,而信号量允许多个线程进入临界区。
1)信号量初始化
int sem_init(&sem,pshared, v)
pshared为0,表示这个信号量是当前进程的局部信号量。
pshared为1,表示这个信号量可以在多个进程之间共享。
v为信号量的初始值。
返回值:
成功:0,失败:-1
2)信号量值的加减
int sem_wait(&sem):以原子操作的方式将信号量的值减去1
int sem_post(&sem):以原子操作的方式将信号量的值加上1
3)对信号量进行清理
int sem_destory(&sem)
欢迎分享,转载请注明来源:夏雨云
评论列表(0条)