Преобразование из CMSampleBuffer в объект UIImage

Я пробовал пример захвата видеокадров с камеры в виде изображений с использованием AV Foundation, который приведен в документации, т.е.

http://developer.apple.com/library/ios/#qa/qa1702/_index.html

Но в методе делегата для получения объекта UIImage из CMSampleBufferRef данный метод не строится.

Означает, что я также импортировал фреймворк AVFoundation, но он выдает 14 ошибок, таких как _CVPixelBufferUnlockBaseAddress, на которые ссылаются:.

Если кто-нибудь знает, как решить, пожалуйста, помогите мне.

Заранее спасибо. Пожалуйста, если кто-нибудь знает, скажите мне.


person Sandy_ios    schedule 13.04.2011    source источник
comment
возможный дубликат Почему AVFoundation не связывается с моим проектом XCode 3.2.3 iPhone 4.0.1?   -  person kennytm    schedule 13.04.2011
comment
@Kenny TM: Спасибо за твой ответ. Да, после импорта corevideo все работает. И я получаю объект UIImage в методе делегата, но если я попытался отобразить UIImage с помощью UIImageView, это означает, что UIImageView * img = [[UIImageView alloc] initWithImage: image]; img.frame = CGRectMake (10,120, 100, 100); [self.view addSubview: img]; вот так изображение не отображается ......   -  person Sandy_ios    schedule 13.04.2011


Ответы (4)


Это код для захвата и получения изображения из захваченных данных:

-(IBAction)startCapture
{
    //session object
    captureSession = [[AVCaptureSession alloc]init];
    captureSession.sessionPreset = AVCaptureSessionPresetMedium;

    AVCaptureVideoPreviewLayer *previewLayer = [AVCaptureVideoPreviewLayer layerWithSession:captureSession];
    previewLayer.frame = CGRectMake(0, 10, 320, 200); ////self.view.frame; //
    [self.view.layer addSublayer:previewLayer];

    NSError *error = nil;
    AVCaptureDevice *device = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo];

    //input object
    AVCaptureDeviceInput *inputDevice = [[AVCaptureDeviceInput alloc]initWithDevice:device error:&error];
    [captureSession addInput:inputDevice];

    stillImageOutput = [[AVCaptureStillImageOutput alloc] init];
    NSDictionary *outputSettings = [[NSDictionary alloc] initWithObjectsAndKeys: AVVideoCodecJPEG, AVVideoCodecKey, nil];
    [stillImageOutput setOutputSettings:outputSettings];

    [captureSession addOutput:stillImageOutput];
    [captureSession startRunning];
}

-(IBAction) captureNow
{
    AVCaptureConnection *videoConnection = nil;
    for (AVCaptureConnection *connection in stillImageOutput.connections)
    {
        for (AVCaptureInputPort *port in [connection inputPorts])
        {
            if ([[port mediaType] isEqual:AVMediaTypeVideo] )
            {
                videoConnection = connection;
                break;
            }
        }
        if (videoConnection) { break; }
    }

    NSLog(@"about to request a capture from: %@", stillImageOutput);
    [stillImageOutput captureStillImageAsynchronouslyFromConnection:videoConnection completionHandler: ^(CMSampleBufferRef imageSampleBuffer, NSError *error)
     {
         CFDictionaryRef exifAttachments = CMGetAttachment( imageSampleBuffer, kCGImagePropertyExifDictionary, NULL);

         NSLog(@"exif Attachments:%@",exifAttachments);
         if (exifAttachments)
         {
             NSData *imageData = [AVCaptureStillImageOutput jpegStillImageNSDataRepresentation:imageSampleBuffer];

             UIImage *image = [[UIImage alloc] initWithData:imageData];
             self.vImage.image = image;
             // Do something with the attachments.

         }
         else
             NSLog(@"no attachments");   
     }];
}
person Sandy_ios    schedule 23.06.2011

Какова ваша конечная цель - вы пытаетесь записать видео в видеофайл. Или просто захватить определенные кадры? У меня есть рабочий пример захвата видеофайла со звуком с помощью AVCaptureSession, если это поможет, я могу опубликовать несколько фрагментов кода, но, поскольку здесь задействовано несколько битов и бобов, я хотел бы конкретно знать, что вы пытаетесь сделать.

Ваше здоровье,

Майкл

person fatuous.logic    schedule 13.04.2011
comment
Спасибо за твой ответ. Моя тема здесь - захватить видео и отображать его как видеофайл или изображение. Я узнал, как получить изображение из захвата видеокадров, но если я попытаюсь отобразить его с помощью UIImageView или сохранить его в фотоальбом, он не работает. - person Sandy_ios; 13.04.2011
comment
Ты понял, что я пытаюсь сделать? - person Sandy_ios; 13.04.2011

Для сохранения в библиотеке после того, как assetWriter закончит запись фильма / захват изображения.

Поместите это вверху над файлом реализации * это пример сохранения видеофайла, но вы можете изменить его, чтобы сохранить изображение:

ALAssetsLibraryWriteVideoCompletionBlock _videoCompblock = ^(NSURL *assetURL, NSError *error){
if(assetURL){
    NSLog(@"Saved to camera roll with Video AssetUrl : %@", [assetURL absoluteString]);
    NSError *error;

    NSFileManager *fileManager = [NSFileManager defaultManager];
    NSDictionary *attributes = [fileManager attributesOfItemAtPath:[assetURL absoluteString] error:&error];

    if (attributes){
        long fileSize = [[attributes objectForKey:NSFileSize] longValue];// unsigned long long
        NSLog(@"%d", fileSize);
    }

}else if(error){
    NSLog(@"The Error occured : %@", [error localizedDescription]);
}

};

Затем вам понадобится функция, которая использует указанный выше блок - поэтому, когда вы захватываете сеанс, запись заканчивается, что-то вроде этого:

-(void) stopRecording{
writing = NO;
isRecording = NO;
[audioInput markAsFinished];//if you have an audio writer stop it too
[videoInput markAsFinished];
[assetWriter endSessionAtSourceTime:[frTimer currentTimeStamp]];
[assetWriter finishWriting];

finished = YES;

[videoUtilities saveToCamera:[assetWriter outputURL]];
NSLog(@"%@", [[assetWriter outputURL] absoluteString]);

}

который запускает функцию сохранения в камеру, которая будет выглядеть примерно так:

+(void) saveToCamera:(NSURL *)urlPath{

ALAssetsLibrary *library = [[ALAssetsLibrary alloc] init];

AVAsset *movFile = [AVURLAsset URLAssetWithURL:urlPath options:nil];
NSLog(@"Movie File %@", movFile);

BOOL isSupported = [library videoAtPathIsCompatibleWithSavedPhotosAlbum:urlPath];

if(isSupported){
    NSLog(@"IS SUPPORTED - SAVING TO CAMERA ROLL");
    [library writeVideoAtPathToSavedPhotosAlbum:urlPath completionBlock:_videoCompblock];

}

}

Если вы пытаетесь отобразить сохраненное изображение в реальном времени, когда вы его снимаете - вам нужно скопировать UIImageData в объект UIImage, когда вы делаете фотографию - и назначить это как изображение для UIImageView. Или вы можете просто перечислить в assetLibrary и вытащить его оттуда.

Надеюсь это поможет,

Ваше здоровье,

Майкл

person fatuous.logic    schedule 15.04.2011
comment
Спасибо. Но я не понял, как использовать код ur в моем требовании. - person Sandy_ios; 20.04.2011

вам необходимо импортировать CoreMedia.framework и CoreVideo.framework

person OXXY    schedule 23.08.2011